Vielfältige Architekturen für unübertroffene Innovation

Beispiellose Auswahl an Architekturen für alle Computing-Anforderungen.

Führend im gesamten Computing-Spektrum

Die Bandbreite der heutigen Computeranwendungen ist unglaublich vielfältig – und sie wächst immer mehr, insbesondere aufgrund der Zunahme der Datenmengen, Edge Computing und künstlicher Intelligenz. Unterschiedliche Workloads erfordern jedoch unterschiedliche Rechenarten.

Intel ist einzigartig positioniert, eine vielfältige Mischung skalarer, Vektor-, Matrix- und räumlicher Architekturen anzubieten, die auf CPU-, GPU-, Accelerator- und FPGA-Sockeln bereitgestellt werden. So können unsere Kunden die am besten geeignete Art von Computing nutzen, wo sie gebraucht wird. In Kombination mit skalierbarem Interconnect und einer einzigen Software-Abstraktion belegen die verschiedenen Architekturen von Intel führende Plätze im gesamten Computing-Spektrum und unterstützen damit die datenzentrierte Welt.

  • Skalar-Architektur bezieht sich in der Regel auf die Art von Workloads, die bei einer CPU optimal sind, wobei ein Stream von Anweisungen in einer bestimmten Rate betrieben wird, die in der Regel durch CPU-Takte angetrieben wird. Von Systemboot- und Produktivitätsanwendungen zu fortgeschrittenen Workloads wie Kryptografie und KI arbeiten skalare CPUs in einer Vielzahl von Topografien mit konsistenter, vorhersehbarer Leistung.
  • Vektor-Architektur ist optimal für Workloads, die sich in Vektoren von Anweisungen oder Vektoren von Datenelementen zersetzen können. GPUs und VPUs bieten vektorbasierte Parallelverarbeitung, um Grafikrendering für Gaming, Richmedia, Analysen und Deep-Learning-Schulungen und Inferenz zu beschleunigen. Durch die Skalierung von Vektor-Architekturen von Client, Rechenzentrum und Edge-Computing, können wir parallele Verarbeitungsleistung von GigaFLOPS bis hin zu TeraFLOPS, PetaFLOPS und ExaFLOPS durchführen.
  • Matrix-Architektur leitet sich aus einer gängigen Operation ab, der für KI-Workloads typischerweise durchgeführt wird (Matrix-Multiplikation). Während andere Architekturen Matrix-Mehrfachcode ausführen können, haben ASICs traditionell die höchste Leistung erreicht, um die Art von Operationen zu implementieren, die für KI-Inferenzierung und -Schulung typischerweise erforderlich sind, einschließlich Matrix-Multiplikation.
  • Raumarchitektur ist eine spezielle Architektur, die in der Regel mit einer FPGA verbunden ist. Hier fließen die Daten durch den Chip, und der Rechenvorgang, der auf dem Datenelement ausgeführt wird, basiert auf dem physischen Standort der Daten im Gerät. Der Algorithmus der Datentransformation, der in das FPGA programmiert wurde.

Skalar konzentriert: vielfältig, Allzweck

Vom Systemstart über Produktivitätsanwendungen bis hin zu komplexeren Workloads wie Kryptografie und KI können die meisten Computing-Anforderungen durch skalare, zentrale Verarbeitungseinheiten oder CPUs abgedeckt werden. CPUs arbeiten in einer Vielzahl von Topografien mit konsistenter, vorhersehbarer Performance.

Intel bietet zwei erstklassige Mikroarchitekturen für CPUs mit der Mikroarchitektur des effizienten Kerns und die Mikroarchitektur des Leistungskerns. Diese Mikroarchitekturen sind im Mittelpunkt der verschiedenen CPUs für Intel von niedrigem TDP-Mobilgerät bis hin zu leistungsstarken Xeon® Rechenzentren. Unsere skalierbare Reihe von CPUs bietet Kunden die Möglichkeit, Leistung, Energieeffizienz und Kosten in Einklang zu bringen.

Vector konzentriert: Hochparallele Verarbeitung

Grafikprozessoren (GPUs) führen eine vektorbasierte parallele Verarbeitung zur Beschleunigung von Arbeitslasten wie beim Grafik-Rendering in Echtzeit für Spiele durch. Da sie sich beim Parallel-Computing auszeichnen, sind GPUs auch eine gute Option, um Deep Learning und andere rechenintensive Workloads zu beschleunigen.

Die integrierten GPUs von Intel bringen hervorragende Grafik auf Millionen von PCs. Mit der Xe-Architektur haben wir unser GPU-IP-Portfolio erweitert, um separate Client- und Rechenzentrumsanwendungen zu skalieren. Bereitstellung einer erhöhten Funktionalität in schnell wachsenden Bereichen, einschließlich Richmedia, Grafik und Analysen.

Unser aktuelles GPU-IP-Portfolio wird die parallele Verarbeitungsleistung von TeraFLOPS über PetaFLOPS bis zu ExaFLOPS einnehmen. Es umfasst 3 Mikroarchitekturen:

  • Xe -LP für effiziente Grafik
  • Xe -HPG für leistungsstarke Grafik
  • Xe -HPC für High-Performance-Computing

Xe-HPG und Xe-HPC-Mikroarchitekturen werden mit einem neuen Rechenblock gebaut, den wir Xe-Core nennen. Xe-cores integrieren einen Reihe von Vektorprozessoren und können für verschiedene Workloads und Marktsegmente optimiert werden, insbesondere mit der Erweiterung von Xe Matrix Extensions (XMX), um KI-Schulungen und Inferenzierung zu beschleunigen.

Matrix konzentriert: Beschleuniger und neue CPU-Anweisungen

Vom Rechenzentrum bis hin zu Edge-Geräten durchdringt KI weiterhin alle Aspekte des Computing-Spektrums. Zu diesem Zweck haben wir speziell entwickelte Beschleuniger entwickelt und unsere CPUs um Verbesserungen der Mikroarchitektur mit neuen Anweisungen zur Beschleunigung von KI-Workloads erweitert.

Ein ASIC (Application-specific integrated circuit) ist eine Art Prozessor, der von Anfang an für eine bestimmte Nutzung vorgesehen sind. In den meisten Fällen bieten ASICs die beste Leistung seiner Klasse für die Aufgabe, für die er entwickelt wurde.

Intel erweitert Plattformen mit speziell entwickelten ASICs, die enorme Leistungssteigerungen für Matrix-Anwendungen ermöglichen. Dazu zählen Habana KI Prozessoren und die Ponte Vecchio High-Performance-Computing-GPUs mit einer neuen XMX (Xe Matrix Extensions)-Technik. Jede XMX-Engine ist mit tiefen systolischen Arrays ausgelegt, wodurch Ponte Vecchio erhebliche Mengen sowohl von den Vektor- als auch den Matrix-Funktionen in einem einzelnen Gerät aufweist.

Zusätzlich erweitert die bei der 3. Generation der skalierbaren Intel® Xeon® Prozessorreihe und bei Intel® Core™ Prozessoren der 10. Generation verfügbare Funktion Intel® Deep Learning Boost (Intel® DL Boost) die Architektur, um die Vector Neural Network Instructions (VNNI) zu beschleunigen. Um die Anweisungen pro Takt (IPC) für KI-Anwendungen drastisch zu steigern, haben wir eine neue Technik genannt Intel® AMX (Advanced Matrix Extensions) eingeführt. Diese Technik wird zuerst als Teil unserer Sapphire Rapids Architektur der nächsten Generation erhältlich sein, die die Operationen nach Art einer Matrix erheblich erhöht.

Weitere Informationen ›

Intel® Xe Matrix Extensions (Intel® XMX)

Tiefe systolische Arrays

Intel® Advanced Matrix Extensions (Intel® XMX)

Fliesenmatrix Multiplikations-Beschleuniger

Räumlich konzentriert: umprogrammierbare FPGAs

Field Programmable Gate Arrays (FPGAs) sind integrierte Schaltkreise, die physisch beeinflussen können, wie ihre Logik-Gates sich öffnen und schließen. Der Schaltkreis in einem FPGA-Chip ist nicht hart geätzt – er kann nach Bedarf neu programmiert werden.

Intel® FPGAs bieten vollständig anpassbare Hardwarebeschleunigung und gleichzeitig die Flexibilität, auf sich schnell ändernde Computing-Anforderungen zu reagieren. Wie leere, veränderbare Leinwände können ihr Zweck und ihre Leistung immer wieder angepasst werden.

Intel® Agilex™ FPGAs und SoCs

Die Intel® Agilex™ FPGA-Familie nutzt heterogene 3D-System-in-Package-Technik (SiP-Technik) zur Integration der ersten FPGA-Struktur von Intel, die auf 10-nm-Prozesstechnik basiert.

Weitere Infos

Intel® Stratix® 10 NX FPGA

Der Intel® Stratix® 10 NX FPGA ist ein KI-optimierter FPGA für die Beschleunigung von künstlicher Intelligenz (KI) mit hoher Bandbreite und geringer Latenz. Die Intel® Stratix® 10 NX FPGA bietet beschleunigte KI-Rechenlösungen über KI-optimierte Compute-Blocks mit bis zu 15-mal mehr höherem INT8-Durchsatz1 als der Standard-DSP-Block Intel® Stratix® 10 FPGA.

Weitere Infos

Architekturen der nächsten Generation

Bei Intel planen wir für die Architekturen der Zukunft und treiben die Erforschung und Entwicklung des Computings der nächsten Generation voran. Dazu gehören die Bereiche Quantenarchitekturen und neuromorphe Architekturen.

Einheitliches Programmieren mit oneAPI

Unsere oneAPI-Initiative wird die Programmierung für eine Welt mit vielfältigen Architekturen definieren. Sie bietet Entwicklern eine einheitliche und offene Programmiererfahrung auf der Architektur ihrer Wahl, wodurch die Komplexität getrennter Code-Pools, Programmiersprachen, Tools und Workflows entfällt.

Mehr über Software

Sechs Säulen der technischen Innovation für die nächste Ära des Computing

Intels Innovationen lassen sich in sechs Säulen technischer Entwicklung einteilen, über die wir das Potenzial von Daten für die Branche und unsere Kunden voll ausschöpfen möchten.

Hinweise und Disclaimer2 3 4

Produkt- und Leistungsinformationen

1

Auf Basis interner Schätzwerte von Intel.

2

Alle Produktpläne und Roadmaps können ohne Ankündigung geändert werden. Aussagen auf dieser Website, die sich auf zukünftige Pläne oder Erwartungen beziehen, sind zukunftsgerichtete Aussagen. Diese Angaben beruhen auf den aktuellen Erwartungen und beinhalten viele Risiken und Ungewissheiten, die dazu führen könnten, dass sich tatsächliche Resultate wesentlich von den in solchen Angaben genannten oder implizierten Resultaten unterscheiden. Weitere Informationen über die Faktoren, die zu einem wesentlichen Unterschied der tatsächlichen Resultate führen könnten, finden Sie auf www.intc.com in unseren zuletzt veröffentlichten Geschäftsergebnissen und SEC-Berichten.

3

Codenamen werden von Intel verwendet, um Produkte, Technik oder Dienste zu identifizieren, die in der Entwicklung und nicht öffentlich erhältlich sind. Diese sind keine „kommerziellen“ Namen und nicht als Marken vorgesehen.

4

Alle hierin gemachten Angaben können sich jederzeit ohne besondere Mitteilung ändern.