HIGHLIGHTS:
- Vielfältige Integration durch Kunden und Partner wie AWS*, Cisco*, Cloudera*, CoreWeave*, Dell Technologies*, Dropbox*, Ericsson*, Fujitsu*, Google Cloud*, Hewlett Packard Enterprise*, IBM Cloud*, Inspur Information*, IONOS*, Lenovo*, Los Alamos National Laboratory*, Microsoft Azure*, NVIDIA*, Oracle Cloud*, OVHcloud*, phoenixNAP*, RedHat*, SAP*, SuperMicro*, Telefonica* und VMware*.
- Unter allen verfügbaren CPUs bieten die neuen Intel® Xeon® Prozessoren der 4. Generation sowie die Intel® Xeon® CPUs der Max-Reihe die höchste Anzahl integrierter Beschleuniger für wichtige Workloads wie Künstliche Intelligenz (KI), Analytik, Netzwerke, Sicherheit, Speicher und High Performance Computing (HPC). Dadurch erzielen sie herausragende Leistungen in einem Workload-zentrierten Ansatz.
- Die neue Generation skalierbarer Xeon Prozessoren stellt Intels nachhaltigste CPU-Reihe für Rechenzentren dar. Sie bieten vielfältige Funktionen zur Optimierung des Stromverbrauchs und der Leistung, um die CPU-Ressourcen optimal nutzen zu können. Das hilft Kunden dabei, ihre Nachhaltigkeitsziele zu erreichen.
- Verglichen mit früheren Generationen können Kunden mit der neuen Prozessorreihe von einer 2,9-fachen1 Verbesserung der durchschnittlichen Leistung pro Watt für bestimme Workloads ausgehen, indem sie die integrierten Beschleuniger nutzen. Im optimierten Energiemodus lassen sich – bei minimalem Leistungsverlust für bestimmte Workloads – bis zu 70 Watt2 pro CPU einsparen. Kunden können außerdem zwischen 52 und 66 Prozent niedrigere Gesamtbetriebskosten (TCO, Total Cost of Ownership)3 erwarten.
München, 10. Januar 2023 – Intel hat heute mit der Markteinführung der skalierbaren Intel® Xeon® Prozessoren der 4. Generation (Codename Sapphire Rapids), der Intel Xeon CPUs der Max-Reihe (Codename Sapphire Rapids HBM) und der Intel® Data Center GPUs der Max-Reihe (Codename Ponte Vecchio) eine der wichtigsten Produkteinführungen in der Unternehmensgeschichte gefeiert. Kunden profitieren von einem Sprung in der Leistung, Effizienz und Sicherheit von Rechenzentren sowie von neuen Funktionen in den Bereichen KI, Cloud, Netzwerk und Edge sowie für die leistungsstärksten Supercomputer der Welt.
In Zusammenarbeit mit Kunden und Partnern liefert Intel mit der 4. Xeon-Generation verschiedene Lösungen und Systeme in großem Maßstab, um unterschiedliche aktuelle Herausforderungen im Bereich Computing zu bewältigen. Intel verfolgt einen einzigartigen Ansatz mit der Bereitstellung gezielter, auf den jeweiligen Workload ausgerichteter Beschleunigung und stark optimierter Software, die auf bestimmte Workloads abgestimmt ist. Das ermöglicht es Intel, die erforderliche Leistung mit angemessenem Energieverbrauch für optimierte Gesamtbetriebskosten zu gewährleisten.
Press Kit: Skalierbare Intel® Xeon® Prozessoren der 4. Generation
Die 4. Xeon-Generation ist Intels nachhaltigste CPU-Reihe für Rechenzentren. Sie bieten Kunden vielzählige Funktionen für das Energie- und Leistungsmanagement. Damit ermöglicht Intel seinen Kunden die optimale Nutzung der CPU-Ressourcen, um eigene Nachhaltigkeitsziele erreichen zu können.
„Die Einführung der 4. Generation von skalierbaren Intel Xeon Prozessoren und der Xeon Max-Produktreihe stellt einen Wendepunkt für Intels Umwschwung dar: Wir setzen unseren Weg zur Marktführerschaft im Rechenzentrum fort und bauen unsere Präsenz auch in neuen Bereichen aus“, sagt Sandra Rivera, Intel Executive Vice President und General Manager der Datacenter und AI Group. „Intelsder 4. Xeon-Generation sowie die Max-Produktfamilie liefern das, was Kunden wirklich wollen: führende Leistung und Zuverlässigkeit innerhalb einer sicheren Umgebung für ihre konkreten Anforderungen. Damit sorgen sie für eine schnellere Amortisation sowie ein höheres Innovationstempo.“
Im Gegensatz zu allen anderen Prozessoren für Rechenzentren auf dem Markt erweitern die skalierbaren Xeon Prozessoren der 4. Generation Intels zweckorientierte „Workload-First“-Strategie erheblich – und werden bereits heute von Kunden eingesetzt.
Herausragende Vorteile im Bereich Leistung und Nachhaltigkeit durch die meisten integrierten Beschleuniger
Heute sind auf dem Markt mehr als 100 Millionen Xeon-Prozessoren im Einsatz, von On-Premises-Servern für die Installation von serverbasierten Computerprogrammen innerhalb einer eigenen Serverumgebung – einschließlich neuer „As-a-Service“-Geschäftsmodelle – über Netzwerkequipment,das den Internetdatenverkehr verwalten, bis hin zu drahtlosen Basisstationen und Cloud-Diensten.
Die neuen skalierbaren Xeon Prozessoren der 4. Generation basieren auf jahrzehntelanger Innovation und Marktführerschaft in den Bereichen Rechenzentrum, Netzwerk und Intelligent Edge. Dadurch bieten Sie die aktuell höchste Leistung mit den meisten integrierten Beschleunigern aller CPUs weltweit, um die wichtigsten Computing-Herausforderungen von Kunden in den Bereichen KI, Analytik, Netzwerke, Sicherheit, Speicher und HPC zu bewältigen.
Verglichen mit früheren Generationen können Kunden mit der 4. Xeon-Generationdurch die Nutzung der integrierten Beschleuniger mit einer 2,9-fachen1 Verbesserung der durchschnittlichen Leistung pro Watt für bestimme Workloads rechnen. Im optimierten Energiemodus lassen sich – bei minimalem Leistungsverlust für bestimmte Workloads – bis zu 70 Watt2 pro CPU einsparen. Kunden können im optimierten Energiesparmodus außerdem zwischen 52 und 66 Prozent niedrigere Gesamtbetriebskosten (TCO)3 erwarten.
Nachhaltigkeit
Die hohe Anzahl integrierter Beschleuniger in der neuen Prozessorreihe ermöglicht zudem Energieeinsparungen auf Plattformebene, wodurch der Bedarf an zusätzlicher dedizierter Beschleunigung sinkt. Das unterstützt Intels Kunden dabei, ihre Nachhaltigkeitsziele zu erreichen. Darüber hinaus kann der neue Optimized Power Mode bei ausgewählten Workloads11 dazu beitragen, bis zu 20 Prozent Energie bei weniger als fünf Prozent Leistungseinbußen einzusparen. Neue Innovationen bei Luft- und Wasserkühlungen senken den Gesamtenergieverbrauch von Rechenzentren zusätzlich. Die 4. Xeon-Generation wurde außerdem durch mindestens 90 Prozent erneuerbaren Strom an Intel-Standorten gefertigt, die über eine hochmoderne Wasserrückgewinnungsanlage verfügen.
Künstliche Intelligenz
Im Bereich Künstlicher Intelligenz erreicht die neue Prozessorgeneration im Vergleich zur Vorherigen eine bis zu zehnmal5,6 höhere PyTorch-Echtzeit-Inferenz- und Trainingsleistung mittels integrierter Intel® Advanced Matrix Extension (Intel® AMX) Beschleuniger. Intels Xeon Prozessoren der 4. Generation erschließen neue Leistungsniveaus für Inferenz und Training in einem breiten Spektrum von KI-Workloads. Die Intel Xeon-Reihe erweitert diese Fähigkeiten für die Verarbeitung natürlicher Sprache: Bei umfangreichen Sprachmodellen erhalten Kunden einen bis zu 20-fachen12 Geschwindigkeitszuwachs. Mit der Intel KI-Software-Suite können Entwickler:innen das KI-Tool ihrer Wahl verwenden, die Produktivität steigern und die KI-Entwicklungszeit verkürzen. Die Suite ist von der Workstation aus portierbar, sodass sie sich in die Cloud und bis hin zu Edge-Anwendungen skalieren lässt. Sie wurde mit über 400 KI-Modellen für Machine- und Deep-Learning in den gängigsten KI-Anwendungsfällen über jedes Geschäftssegment hin validiert.
Networking
Die skalierbaren Intel Xeon Prozessoren der 4. Generation sind speziell für leistungsstarke Netzwerk- und Edge-Workloads mit niedriger Latenz optimiert. Die Prozessoren bilden ein wichtiges Fundament für Branchen wie Telekommunikation, Einzelhandel, Fertigung und smarte Städte. Integrierte Beschleuniger helfen bei 5G-Hauptworkloads dabei, den Durchsatz zu erhöhen und die Latenzzeit zu verringern. Fortschritte bei der Energieverwaltung verbessern gleichzeitig sowohl die Reaktionsfähigkeit als auch die Effizienz der Plattform. Somit kann im Vergleich zu früheren Generationen in vielen Fällen eine bis zu zweifach gesteigerte Kapazität für Virtualized Radio Access Networks (vRAN) erzielt werden, ohne dabei den Stromverbrauch zu erhöhen. Das ermöglicht es Kommunikationsdienstleistern, die Performance pro Watt zu verdoppeln, um ihre Anforderungen an Leistung, Skalierung und Energieeffizienz zu erfüllen.
Die 4. Intel Xeon-Generation und die Intel Max-Reihe bieten eine skalierbare, ausgewogene Architektur, die CPUs und GPUs mit dem offenen Software-Ökosystem von oneAPI für anspruchsvolle Rechenlasten in HPC- und KI-Workloads integriert, um hochkomplexe Berechnungen lösen zu können.
Die neue Intel Xeon CPU Max-Reihe ist der erste und einzige x86-basierte Prozessor mit Breitband-Speicher, der viele HPC-Workloads beschleunigt, ohne Codeänderungen zu benötigen. Die Intel Data Center GPU Max-Reihe ist Intels Prozessor mit der höchsten Transistordichte und wird in verschiedenen Formfaktoren erhältlich sein, um unterschiedliche Kundenanforderungen erfüllen zu können.
Die Xeon CPUs der Max-Reihe bieten 64 Gigabyte Breitband-Speicher (HBM2e, High Bandwith Memory 2E) auf dem Package und erhöht dadurch den Datendurchsatz für HPC- und KI-Workloads deutlich. Im Vergleich zu den stärksten skalierbaren Intel® Xeon® Prozessoren der 3. Generation bietet die Xeon CPU Max-Reihe eine bis zu 3,7-mal10 höhere Leistung bei vielfältigen praktischen Anwendungen wie Energie- und Erdsystemmodellierung.
Zusätzlich beinhaltet die Data Center GPU Max-Reihe mehr als 100 Milliarden Transistoren in einem Package mit 47 Tiles. Das führt bei anspruchsvollen Workloads wie physikalischen Modellierungen, Finanzdienstleistungen und Biowissenschaften zu einem deutlich höheren Datendurchsatz. In Kombination mit der Xeon CPU Max-Reihe erreicht die kombinierte Plattform bei der Ausführung des Molekulardynamiksimulators LAMMPS eine bis zu 12,8-mal14 höhere Leistung als die vorherige Generation.
Die bisher funktionsreichste und sicherste Xeon-Plattform
Mit der größten Plattformtransformation, die Intel je durchgeführt hat, ist die 4. Xeon-Generation nicht nur ein Beschleunigungswunder, sondern stellt auch eine Errungenschaft in der Fertigung dar: Sie vereint bis zu vier Intel 7-Tiles auf einem einzigen Package, verbunden mit der Intel EMIB (Embedded Multi-Die Interconnect Bridge)- Packaging-Technologie. Die Prozessorreihe bietet auch neue Funktionen wie eine höhere Speicherbandbreite mit DDR5 und eine höhere I/O-Bandbreite mit PCIe 5.0 und Compute Express Link (CXL) 1.1.
Der Fokus auf die Sicherheit bildet die Grundlage für die neue Prozessorgeneration: Mit der 4.der 4. Xeon-Generation liefert Intel das umfassendste Portfolio für vertrauliche Datenverarbeitung aller branchenweiten Anbieter von Chips für Rechenzentren. Verbesserungen betreffen die Datensicherheit, die Einhaltung gesetzlicher Vorschriften sowie die Datenhoheit. Intel ist nach wie vor der einzige Chipanbieter, der mit Intel® Software Guard Extensions (Intel® SGX) eine Anwendungsisolierung für Rechenzentren anbietet, welche die derzeit geringste Angriffsfläche für vertrauliche Datenverarbeitung in privaten, öffentlichen und Cloud-to-Edge-Umgebungen besitzt. Darüber hinaus ist Intels neue Isolationstechnologie für virtuelle Maschinen (VMs), Intel® Trust Domain Extensions (Intel® TDX), ideal für die Portierung bestehender Anwendungen in eine vertrauliche Umgebung und wird erstmals in Microsoft Azure*, Alibaba Cloud*, Google Cloud* und IBM Cloud* eingesetzt.
Die modulare Architektur der 4. Generation skalierbarer Intel Xeon Prozessoren ermöglicht es Intel, fast 50 zielgerichtete SKUs für Kundenanwendungsfälle anzubieten. Diese reichen von Mainstream-Allzweck-SKUs bis hin zu speziell entwickelten SKUs für Cloud-, Datenbank- und Analyse-, Netzwerk-, Speicher- und Single-Socket-Edge-Anwendungsfällen. Die neue Prozessorreihe ist On-Demand-fähig und variiert in Bezug auf die Anzahl der Kerne, die Frequenz, den Mix an Beschleunigern, die Leistungsaufnahme und den Speicherdurchsatz – je nach Zielanwendungsfällen und Formfaktoren, die den realen Anforderungen der Kunden entsprechen.
SKU-Tabelle: SKUs für die 4. Generation skalierbarer Intel Xeon Prozessoren und der Intel Xeon CPU der Max-Reihe
Am 10. Januar 2023 stellte Intel die 4. Generation skalierbarer Intel Prozessoren vor und erweiterte die speziell auf Arbeitslasten ausgerichtete Strategie und Vorgehensweise. (Credit: Intel Corporation)
Die 4. Generation skalierbarer Intel Prozessoren bietet weltweit die höchste Anzahl integrierter Beschleuniger in einer CPU. (Credit: Intel Corporation)
Die 4. Generation skalierbarer Intel Prozessoren ist in der Lage unterschiedliche aktuelle Herausforderungen von unseren Kunden im Bereich Computing zu bewältigen. (Credit: Intel Corporation)
Die neue Intel Xeon CPU Max-Reihe ist der erste und einzige x86-basierte Prozessor mit Breitband-Speicher, der viele HPC-Workloads beschleunigt, ohne Codeänderungen zu benötigen. (Credit: Intel Corporation)
Im Vergleich zu den stärksten skalierbaren Intel® Xeon® Prozessoren der 3. Generation bietet die Xeon CPU Max-Reihe eine bis zu 3,7-mal10 höhere Leistung bei vielfältigen praktischen Anwendungen wie Energie- und Erdsystemmodellierung. Zusätzlich beinhaltet die Data Center GPU Max-Reihe mehr als 100 Milliarden Transistoren in einem Package mit 47 Tiles. (Credit: Intel Corporation)
¹ Geomean of following workloads: RocksDB (IAA vs ZTD), ClickHouse (IAA vs ZTD), SPDK large media and database request proxies (DSA vs out of box), Image Classification ResNet-50 (AMX vs VNNI), Object Detection SSD-ResNet-34 (AMX vs VNNI), QATzip (QAT vs zlib)
² 1-node, Intel Reference Validation Platform, 2x Intel® Xeon 8480+ (56C, 2GHz, 350W TDP), HT On, Turbo ON, Total Memory: 1 TB (16 slots/ 64GB/ 4800 MHz), 1x P4510 3.84TB NVMe PCIe Gen4 drive, BIOS: 0091.D05, (ucode:0x2b0000c0), CentOS Stream 8, 5.15.0-spr.bkc.pc.10.4.11.x86_64, Java Perf/Watt w/ openjdk-11+28_linux-x64_bin, 112 instances, 1550MB Initial/Max heap size, Tested by Intel as of Oct 2022.
³ ResNet50 Image Classification
New Configuration: 1-node, 2x pre-production 4th Gen Intel® Xeon® Scalable 8490H processor (60 core) with Intel® Advanced Matrix Extensions (Intel AMX), on pre-production SuperMicro SYS-221H-TNR with 1024GB DDR5 memory (16x64 GB), microcode 0x2b0000c0, HT On, Turbo On, SNC Off, CentOS Stream 8, 5.19.16-301.fc37.x86_64, 1x3.84TB P5510 NVMe, 10GbE x540-AT2, Intel TF 2.10, AI Model=Resnet 50 v1_5, best scores achieved: BS1 AMX 1 core/instance (max. 15ms SLA), using physical cores, tested by Intel November 2022. Baseline: 1-node, 2x production 3rd Gen Intel Xeon Scalable 8380 Processor ( 40 cores) on SuperMicro SYS-220U-TNR , DDR4 memory total 1024GB (16x64 GB), microcode 0xd000375, HT On, Turbo On, SNC Off, CentOS Stream 8, 5.19.16-301.fc37.x86_64, 1x3.84TB P5510 NVMe, 10GbE x540-AT2, Intel TF 2.10, AI Model=Resnet 50 v1_5, best scores achieved: BS1 INT8 2 cores/instance (max. 15ms SLA), using physical cores, tested by Intel November 2022.
For a 50 server fleet of 3rd Gen Xeon 8380 (RN50 w/DLBoost), estimated as of November 2022:
CapEx costs: $1.64M
OpEx costs (4 year, includes power and cooling utility costs, infrastructure and hardware maintenance costs): $739.9K
Energy use in kWh (4 year, per server): 44627, PUE 1.6
Other assumptions: utility cost $0.1/kWh, kWh to kg CO2 factor 0.42394
For a 17 server fleet of 4th Gen Xeon 8490H (RN50 w/AMX), estimated as of November 2022:
CapEx costs: $799.4K
OpEx costs (4 year, includes power and cooling utility costs, infrastructure and hardware maintenance costs): $275.3K
Energy use in kWh (4 year, per server): 58581, PUE 1.6
AI -- 55% lower TCO by deploying fewer 4th Gen Intel® Xeon® processor-based servers to meet the same performance requirement. See [E7] at intel.com/processorclaims: 4th Gen Intel Xeon Scalable processors. Results may vary.
Database -- 52% lower TCO by deploying fewer 4th Gen Intel® Xeon® processor-based servers to meet the same performance requirement. See [E8] at intel.com/processorclaims: 4th Gen Intel Xeon Scalable processors. Results may vary.
HPC -- 66% lower TCO by deploying fewer Intel® Xeon® CPU Max processor-based servers to meet the same performance requirement. See [E9] at intel.com/processorclaims: 4th Gen Intel Xeon Scalable processors. Results may vary.
4 Geomean of HP Linpack, Stream Triad, SPECrate2017_fp_base est, SPECrate2017_int_base est. See [G2, G4, G6] at intel.com/processorclaims: 4th Gen Intel Xeon Scalable.
5 Up to 10x higher PyTorch real-time inference performance with built-in Intel® Advanced Matrix Extensions (Intel® AMX) (BF16) vs. the prior generation (FP32)
PyTorch geomean of ResNet50, Bert-Large, MaskRCNN, SSD-ResNet34, RNN-T, Resnext101.
6 Up to 10x higher PyTorch training performance with built-in Intel® Advanced Matrix Extensions (Intel® AMX) (BF16) vs. the prior generation (FP32)
PyTorch geomean of ResNet50, Bert-Large, DLRM, MaskRCNN, SSD-ResNet34, RNN-T.
7 Estimated as of 8/30/2022 based on 4th generation Intel® Xeon® Scalable processor architecture improvements vs 3rd generation Intel® Xeon® Scalable processor at similar core count, socket power and frequency on a test scenario using FlexRAN™ software. Results may vary.
8 Up to 95% fewer cores and 2x higher level 1 compression throughput with 4th Gen Intel Xeon Platinum 8490H using integrated Intel QAT vs. prior generation.
8490H: 1-node, pre-production platform with 2x 4th Gen Intel® Xeon Scalable Processor (60 core) with integrated Intel QuickAssist Accelerator (Intel QAT), QAT device utilized=8(2 sockets active), with Total 1024GB (16x64 GB) DDR5 memory, microcode 0xf000380, HT On, Turbo Off, SNC Off, Ubuntu 22.04.1 LTS, 5.15.0-47-generic, 1x 1.92TB Intel® SSDSC2KG01, QAT v20.l.0.9.1 , QATzip v1.0.9 , ISA-L v2.3.0, tested by Intel September 2022.
8380: 1-node, 2x 3rd Gen Intel Xeon Scalable Processors( 40 cores) on Coyote Pass platform, DDR4 memory total 1024GB (16x64 GB), microcode 0xd000375, HT On, Turbo Off, SNC Off, Ubuntu 22.04.1 LTS, 5.15.0-47-generic, 1x 1.92TB Intel SSDSC2KG01,QAT v1.7.l.4.16, QATzip v1.0.9 , ISA-L v2.3.0, tested by Intel October 2022.
9 Up to 3x higher RocksDB performance with 4th Gen Intel Xeon Platinum 8490H using integrated Intel IAA vs. prior generation.
8490H: 1-node, pre-production Intel platform with 2x 4th Gen Intel Xeon Scalable Processor (60 cores) with integrated Intel In-Memory Analytics Accelerator (Intel IAA), HT On, Turbo On, Total Memory 1024GB (16x64GB DDR5 4800), microcode 0xf000380, 1x 1.92TB INTEL SSDSC2KG01, Ubuntu 22.04.1 LTS, 5.18.12-051812-generic, QPL v0.1.21,accel-config-v3.4.6.4, ZSTD v1.5.2, RocksDB v6.4.6 (db_bench), tested by Intel September 2022.
8380: 1-node, 2x 3rd Gen Intel Xeon Scalable Processors( 40 cores) on Coyote Pass platform, HT On, Turbo On, SNC Off, Total Memory 1024GB (16x64GB DDR4 3200), microcode 0xd000375, 1x 1.92TB INTEL SSDSC2KG01, Ubuntu 22.04.1 LTS, 5.18.12-051812-generic, ZSTD v1.5.2, RocksDB v6.4.6 (db_bench), tested by Intel October 2022.
10 Intel® Xeon® 8380: Test by Intel as of 10/7/2022. 1-node, 2x Intel® Xeon® 8380 CPU, HT On, Turbo On, Total Memory 256 GB (16x16GB 3200MT/s DDR4), BIOS Version SE5C620.86B.01.01.0006.2207150335, ucode revision=0xd000375, Rocky Linux 8.6, Linux version 4.18.0-372.26.1.el8_6.crt1.x86_64, YASK v3.05.07
Intel® Xeon® CPU Max Series: Test by Intel as of ww36’22. 1-node, 2x Intel® Xeon® CPU Max SeriesHT On, Turbo On, SNC4, Total Memory 128 GB (8x16GB HBM2 3200MT/s), BIOS Version SE5C7411.86B.8424.D03.2208100444, ucode revision=0x2c000020, CentOS Stream 8, Linux version 5.19.0-rc6.0712.intel_next.1.x86_64+server, YASK v3.05.07.
11 Up to 20% system power savings utilizing 4th Gen Xeon Scalable with Optimized Power mode on vs off on select workloads including SpecJBB, SPECINT and NIGNX key handshake.
12 AMD Milan: Tested by Numenta as of 11/28/2022. 1-node, 2x AMD EPYC 7R13 on AWS m6a.48xlarge, 768 GB DDR4-3200, Ubuntu 20.04 Kernel 5.15, OpenVINO 2022.3, BERT-Large, Sequence Length 512, Batch Size 1
Intel® Xeon® 8480+: Tested by Numenta as of 11/28/2022. 1-node, 2x Intel® Xeon® 8480+, 512 GB DDR5-4800, Ubuntu 22.04 Kernel 5.17, OpenVINO 2022.3, Numenta-Optimized BERT-Large, Sequence Length 512, Batch Size 1
Intel® Xeon® Max 9468: Tested by Numenta as of 11/30/2022. 1-node, 2x Intel® Xeon® Max 9468, 128 GB HBM2e 3200 MT/s, Ubuntu 22.04 Kernel 5.15, OpenVINO 2022.3, Numenta-Optimized BERT-Large, Sequence Length 512, Batch Size 1
13 Intel® Xeon® 8380: Test by Intel as of 10/28/2022. 1-node, 2x Intel® Xeon® 8380 CPU, HT On, Turbo On, Total Memory 256 GB (16x16GB 3200MT/s, Dual-Rank), BIOS Version SE5C6200.86B.0020.P23.2103261309, ucode revision=0xd000270, Rocky Linux 8.6, Linux version 4.18.0-372.19.1.el8_6.crt1.x86_64
Intel® Xeon® CPU Max Series HBM: Test by Intel as of 10/28/2022. 1-node, 2x Intel® Xeon® Max 9480, HT On, Turbo On, Total Memory 128 GB HBM2e, BIOS EGSDCRB1.DWR.0085.D12.2207281916, ucode 0xac000040, SUSE Linux Enterprise Server 15 SP3, Kernel 5.3.18, oneAPI 2022.3.0
Intel® Data Center GPU Max Series with DDR Host: Test by Intel as of 10/28/2022. 1-node, 2x Intel® Xeon® Max 9480, HT On, Turbo On, Total Memory 1024 GB DDR5-4800 + 128 GB HBM2e, Memory Mode: Flat, HBM2e not used, 6x Intel® Data Center GPU Max Series, BIOS EGSDCRB1.DWR.0085.D12.2207281916, ucode 0xac000040, Agama pvc-prq-54, SUSE Linux Enterprise Server 15 SP3, Kernel 5.3.18, oneAPI 2022.3.0
Intel® Data Center GPU Max Series with HBM Host: Test by Intel as of 10/28/2022. 1-node, 2x Intel® Xeon® Max 9480, HT On, Turbo On, Total Memory 128 GB HBM2e, 6x Intel® Data Center GPU Max Series, BIOS EGSDCRB1.DWR.0085.D12.2207281916, ucode 0xac000040, Agama pvc-prq-54, SUSE Linux Enterprise Server 15 SP3, Kernel 5.3.18, oneAPI 2022.3.0