Vielfältige Architekturen für unübertroffene Innovation
Beispiellose Auswahl an Architekturen für alle Computing-Anforderungen.
Führend im gesamten Computing-Spektrum
Die Bandbreite der heutigen Computeranwendungen ist unglaublich vielfältig – und sie wächst immer mehr, insbesondere aufgrund der Zunahme der Datenmengen, Edge Computing und künstlicher Intelligenz. Unterschiedliche Workloads erfordern jedoch unterschiedliche Rechenarten.
Intel ist einzigartig positioniert, eine vielfältige Mischung skalarer, Vektor-, Matrix- und räumlicher Architekturen anzubieten, die auf CPU-, GPU-, Accelerator- und FPGA-Sockeln bereitgestellt werden. So können unsere Kunden die am besten geeignete Art von Computing nutzen, wo sie gebraucht wird. In Kombination mit skalierbarem Interconnect und einer einzigen Software-Abstraktion belegen die verschiedenen Architekturen von Intel führende Plätze im gesamten Computing-Spektrum und unterstützen damit die datenzentrierte Welt.
- Skalar-Architektur bezieht sich in der Regel auf die Art von Workloads, die bei einer CPU optimal sind, wobei ein Stream von Anweisungen in einer bestimmten Rate betrieben wird, die in der Regel durch CPU-Takte angetrieben wird. Von Systemboot- und Produktivitätsanwendungen zu fortgeschrittenen Workloads wie Kryptografie und KI arbeiten skalare CPUs in einer Vielzahl von Topografien mit konsistenter, vorhersehbarer Leistung.
- Vektor-Architektur ist optimal für Workloads, die sich in Vektoren von Anweisungen oder Vektoren von Datenelementen zersetzen können. GPUs und VPUs bieten vektorbasierte Parallelverarbeitung, um Grafikrendering für Gaming, Richmedia, Analysen und Deep-Learning-Schulungen und Inferenz zu beschleunigen. Durch die Skalierung von Vektor-Architekturen von Client, Rechenzentrum und Edge-Computing, können wir parallele Verarbeitungsleistung von GigaFLOPS bis hin zu TeraFLOPS, PetaFLOPS und ExaFLOPS durchführen.
- Matrix-Architektur leitet sich aus einer gängigen Operation ab, der für KI-Workloads typischerweise durchgeführt wird (Matrix-Multiplikation). Während andere Architekturen Matrix-Mehrfachcode ausführen können, haben ASICs traditionell die höchste Leistung erreicht, um die Art von Operationen zu implementieren, die für KI-Inferenzierung und -Schulung typischerweise erforderlich sind, einschließlich Matrix-Multiplikation.
- Raumarchitektur ist eine spezielle Architektur, die in der Regel mit einer FPGA verbunden ist. Hier fließen die Daten durch den Chip, und der Rechenvorgang, der auf dem Datenelement ausgeführt wird, basiert auf dem physischen Standort der Daten im Gerät. Der Algorithmus der Datentransformation, der in das FPGA programmiert wurde.
Skalar konzentriert: vielfältig, Allzweck
Vom Systemstart über Produktivitätsanwendungen bis hin zu komplexeren Workloads wie Kryptografie und KI können die meisten Computing-Anforderungen durch skalare, zentrale Verarbeitungseinheiten oder CPUs abgedeckt werden. CPUs arbeiten in einer Vielzahl von Topografien mit konsistenter, vorhersehbarer Performance.
Intel bietet zwei erstklassige Mikroarchitekturen für CPUs mit der Mikroarchitektur des effizienten Kerns und die Mikroarchitektur des Leistungskerns. Diese Mikroarchitekturen sind im Mittelpunkt der verschiedenen CPUs für Intel von niedrigem TDP-Mobilgerät bis hin zu leistungsstarken Xeon® Rechenzentren. Unsere skalierbare Reihe von CPUs bietet Kunden die Möglichkeit, Leistung, Energieeffizienz und Kosten in Einklang zu bringen.
Vector konzentriert: Hochparallele Verarbeitung
Grafikprozessoren (GPUs) führen eine vektorbasierte parallele Verarbeitung zur Beschleunigung von Arbeitslasten wie beim Grafik-Rendering in Echtzeit für Spiele durch. Da sie sich beim Parallel-Computing auszeichnen, sind GPUs auch eine gute Option, um Deep Learning und andere rechenintensive Workloads zu beschleunigen.
Die integrierten GPUs von Intel bringen hervorragende Grafik auf Millionen von PCs. Mit der Xe-Architektur haben wir unser GPU-IP-Portfolio erweitert, um separate Client- und Rechenzentrumsanwendungen zu skalieren. Bereitstellung einer erhöhten Funktionalität in schnell wachsenden Bereichen, einschließlich Richmedia, Grafik und Analysen.
Unser aktuelles GPU-IP-Portfolio wird die parallele Verarbeitungsleistung von TeraFLOPS über PetaFLOPS bis zu ExaFLOPS einnehmen. Es umfasst 3 Mikroarchitekturen:
- Xe -LP für effiziente Grafik
- Xe -HPG für leistungsstarke Grafik
- Xe -HPC für High-Performance-Computing
Xe-HPG und Xe-HPC-Mikroarchitekturen werden mit einem neuen Rechenblock gebaut, den wir Xe-Core nennen. Xe-cores integrieren einen Reihe von Vektorprozessoren und können für verschiedene Workloads und Marktsegmente optimiert werden, insbesondere mit der Erweiterung von Xe Matrix Extensions (XMX), um KI-Schulungen und Inferenzierung zu beschleunigen.
Die Alchemist-Reihe von GPUs bietet die Xe-HPG-Mikroarchitektur mit XMX und erweiterten Grafikfunktionen, die für DirectX 12 Ultimate optimiert sind.
Ponte Vecchio GPUs sind für das Rechenzentrum mit verbesserter Skalierung, Computing und XMX-Funktionen ausgelegt.
Matrix konzentriert: Beschleuniger und neue CPU-Anweisungen
Vom Rechenzentrum bis hin zu Edge-Geräten durchdringt KI weiterhin alle Aspekte des Computing-Spektrums. Zu diesem Zweck haben wir speziell entwickelte Beschleuniger entwickelt und unsere CPUs um Verbesserungen der Mikroarchitektur mit neuen Anweisungen zur Beschleunigung von KI-Workloads erweitert.
Ein ASIC (Application-specific integrated circuit) ist eine Art Prozessor, der von Anfang an für eine bestimmte Nutzung vorgesehen sind. In den meisten Fällen bieten ASICs die beste Leistung seiner Klasse für die Aufgabe, für die er entwickelt wurde.
Intel erweitert Plattformen mit speziell entwickelten ASICs, die enorme Leistungssteigerungen für Matrix-Anwendungen ermöglichen. Dazu zählen Habana KI Prozessoren und die Ponte Vecchio High-Performance-Computing-GPUs mit einer neuen XMX (Xe Matrix Extensions)-Technik. Jede XMX-Engine ist mit tiefen systolischen Arrays ausgelegt, wodurch Ponte Vecchio erhebliche Mengen sowohl von den Vektor- als auch den Matrix-Funktionen in einem einzelnen Gerät aufweist.
Zusätzlich erweitert die bei der 3. Generation der skalierbaren Intel® Xeon® Prozessorreihe und bei Intel® Core™ Prozessoren der 10. Generation verfügbare Funktion Intel® Deep Learning Boost (Intel® DL Boost) die Architektur, um die Vector Neural Network Instructions (VNNI) zu beschleunigen. Um die Anweisungen pro Takt (IPC) für KI-Anwendungen drastisch zu steigern, haben wir eine neue Technik genannt Intel® AMX (Advanced Matrix Extensions) eingeführt. Diese Technik wird zuerst als Teil unserer Sapphire Rapids Architektur der nächsten Generation erhältlich sein, die die Operationen nach Art einer Matrix erheblich erhöht.
Intel® Xe Matrix Extensions (Intel® XMX)
Tiefe systolische Arrays
Intel® Advanced Matrix Extensions (Intel® XMX)
Fliesenmatrix Multiplikations-Beschleuniger
Räumlich konzentriert: umprogrammierbare FPGAs
Field Programmable Gate Arrays (FPGAs) sind integrierte Schaltkreise, die physisch beeinflussen können, wie ihre Logik-Gates sich öffnen und schließen. Der Schaltkreis in einem FPGA-Chip ist nicht hart geätzt – er kann nach Bedarf neu programmiert werden.
Intel® FPGAs bieten vollständig anpassbare Hardwarebeschleunigung und gleichzeitig die Flexibilität, auf sich schnell ändernde Computing-Anforderungen zu reagieren. Wie leere, veränderbare Leinwände können ihr Zweck und ihre Leistung immer wieder angepasst werden.
Intel® Agilex™ FPGAs und SoCs
Die Intel® Agilex™ FPGA-Familie nutzt heterogene 3D-System-in-Package-Technik (SiP-Technik) zur Integration der ersten FPGA-Struktur von Intel, die auf 10-nm-Prozesstechnik basiert.
Intel® Stratix® 10 NX FPGA
Der Intel® Stratix® 10 NX FPGA ist ein KI-optimierter FPGA für die Beschleunigung von künstlicher Intelligenz (KI) mit hoher Bandbreite und geringer Latenz. Die Intel® Stratix® 10 NX FPGA bietet beschleunigte KI-Rechenlösungen über KI-optimierte Compute-Blocks mit bis zu 15-mal mehr höherem INT8-Durchsatz1 als der Standard-DSP-Block Intel® Stratix® 10 FPGA.
Architekturen der nächsten Generation
Bei Intel planen wir für die Architekturen der Zukunft und treiben die Erforschung und Entwicklung des Computings der nächsten Generation voran. Dazu gehören die Bereiche Quantenarchitekturen und neuromorphe Architekturen.
Quanten-Computing
Unsere Forscher untersuchen, wie Quanten-Computing zur Lösung von Problemen eingesetzt werden kann, die über die Fähigkeiten der heutigen Computer hinausgehen, zum Beispiel in der Arzneimittelforschung, Finanzmodellierung und Weltraumforschung. Ebenso entwickeln wir eine Technik weiter, die als Spin-Qubits in Silizium bezeichnet wird. Da Spin-Qubits einem einzelnen Elektronentransistor ähneln, können wir unsere letzten 50 Jahre an Fertigungserfahrung auf unsere Quanten-Computing-Forschung anwenden.
Neuromorphes Computing
Neuromorphe Systeme sind von der Art und Weise inspiriert, wie unser Gehirn arbeitet. Sie lösen Probleme durch zeitnahe Interaktion mit Echtzeitdaten, sodass komplexe Sprach- und Videoanalysen, Robotik und autonome Systeme auf externe Ereignisse reagieren können, insbesondere wenn eine unerwartete Anpassung erforderlich ist.
Einheitliches Programmieren mit oneAPI
Unsere oneAPI-Initiative wird die Programmierung für eine Welt mit vielfältigen Architekturen definieren. Sie bietet Entwicklern eine einheitliche und offene Programmiererfahrung auf der Architektur ihrer Wahl, wodurch die Komplexität getrennter Code-Pools, Programmiersprachen, Tools und Workflows entfällt.
Hinweise und Disclaimer2 3 4
Produkt- und Leistungsinformationen
Auf Basis interner Schätzwerte von Intel.
Alle Produktpläne und Roadmaps können ohne Ankündigung geändert werden. Aussagen auf dieser Website, die sich auf zukünftige Pläne oder Erwartungen beziehen, sind zukunftsgerichtete Aussagen. Diese Angaben beruhen auf den aktuellen Erwartungen und beinhalten viele Risiken und Ungewissheiten, die dazu führen könnten, dass sich tatsächliche Resultate wesentlich von den in solchen Angaben genannten oder implizierten Resultaten unterscheiden. Weitere Informationen über die Faktoren, die zu einem wesentlichen Unterschied der tatsächlichen Resultate führen könnten, finden Sie auf www.intc.com in unseren zuletzt veröffentlichten Geschäftsergebnissen und SEC-Berichten.
Codenamen werden von Intel verwendet, um Produkte, Technik oder Dienste zu identifizieren, die in der Entwicklung und nicht öffentlich erhältlich sind. Diese sind keine „kommerziellen“ Namen und nicht als Marken vorgesehen.
Alle hierin gemachten Angaben können sich jederzeit ohne besondere Mitteilung ändern.