Intel® Arc™ GPU für den Edge
Optimieren Sie Edge-KI, Grafik und Medienverarbeitung mit separater Intel Arc Graphics GPU.
Steigern Sie die Leistung von Workloads am Edge.
Grafikprodukte
Für eindringliche visuelle Erlebnisse.
KI-Inferenz
Stellen Sie fortschrittliche KI-Workloads am Edge mit speziellen KI-Engines bereit.
Medienverarbeitung und -bereitstellung
Verbessern Sie die Videoproduktion, Media-Transkodierung und Streaming.
Überwinden Sie Komplexität am Edge mit der Intel® Arc™ GPU
Stellen Sie am Edge für zukunftsfähige, hocheffiziente KI, Visual Computing und Medienverarbeitung separate Intel® Arc™ GPUs bereit. GPU-Karten aus dem ODM-Technologieumfeld von Intel bieten verschiedene, Edge-orientierte Formate mit langer Lebensdauer1 und Optimierungen für Embedded-Anwendungen. Beseitigen Sie die Bindung an einen Anbieter mit einem offeneren, standardbasierten Software-Stack, mit dem Sie leistungsstarke KI-Anwendungen und -Lösungen entwickeln können.
Partner GPU-Karten für den Edge
Was Sie mit Intel Arc GPU machen können
Dedizierte LLM-Verarbeitung und Videoanalysen mit Intel® Arc™ GPU transformieren die Intelligenz von Ladestationen
Die leistungsstarke Kombination aus Intel® Arc™ GPU, Intel® Core™ Prozessor und dem entwicklerfreundlichen OpenVINO™ Toolkit revolutioniert Self-Service und das Laden von Elektrofahrzeugen. DFI integriert Self-Service-Ladestationen mit LLM-Technik und interaktiver Digital Signage, die durch Virtualisierungstechnologie verschiedene Betriebssysteme unterstützen. Mit diesen innovativen Technologien wird das Laden von Elektrofahrzeugen zu mehr als nur Auftanken – es wird zu einem interaktiven, personalisierten und umsatzsteigernden Erlebnis.
Die Zukunft des Shopping: Wie Einkaufszentren KI für intelligentere Abläufe verwenden
CUE läutet mit der Intel® Arc™ GPU für KI-Inferenz ein neues Zeitalter des intelligenten Einzelhandels ein. Durch die Analyse spezifischer Passantenmuster in jeder Etage und die Analyse von Verbraucherpräferenzen für verschiedene Geschäftsarten wie Restaurants und Einzelhandel erhält das Maples Center Einblicke in die Präferenzen von Kunden und kann Laden-Layouts verschiedener Geschäftsarten optimieren, Produktangebote anpassen und Marketingstrategien verfeinern, um die Attraktivität des Einkaufszentrums, die Kundenzufriedenheit und letztlich die Umsätze zu verbessern.
Eine außergewöhnliche Display-Dichte, Auflösung und Leistung für anspruchsvolle Multi-Monitor-Videowand-Anwendungen mit Grafikkarten der Matrox LUMA Pro Reihe mit Intel® Arc™ GPU anbieten.
Die Lösung für die automatisierte optische Inspektion (AOI) von ADLINK ist mit einer Intel CPU, Intel GPUs und vom OpenVINO Toolkit optimierten ADLINK-KI-Modellen ausgestattet. Die Lösung bietet hochgenaue visuelle Inferenz in großem Maßstab, um die Overhead-Kosten für die Qualitätssicherung in der Fertigung zu reduzieren.
A370M Leistung im Vergleich mit NVIDIA® T1000
Bis zu
2,4x
Höhere Leistung bei KI-Inferenz mit Resnet50, Batch-Größe 32.1
Bis zu
2,28x
Höhere Leistung bei der Dekodierung von 2 Streams mit H.264 1080p30-Video. 1
Bis zu
2,4x
Höhere Leistung bei KI-Inferenz mit Resnet50, Batch-Größe 32.1
Bis zu
2,28x
Höhere Leistung bei der Dekodierung von 2 Streams mit H.264 1080p30-Video. 1
KI-Inferenz für Entwickler beschleunigen
Mit den Optimierungstechniken des OpenVINO Toolkit (wie Modellquantisierung, Schichtfusion und Optimierungen auf Hardware-Ebene) können Sie die Effizienz der KI-Inferenz deutlich verbessern. Bei Bereitstellung auf einer separaten GPU können diese optimierten Modelle die parallelen Verarbeitungsfunktionen der GPU nutzen, was zu höheren Inferenzgeschwindigkeiten führt. Das Automatic Device Plugin (AUTO) ermöglicht Inferenzanfragen auf Basis der optimalen verfügbaren CPU- oder GPU-Ressource, wobei Latenz oder Leistung nach Bedarf priorisiert werden.
OpenVINO ermöglicht die Aufrechterhaltung der Kosteneffizienz bei gleichzeitig außergewöhnlicher GPU-Leistung. Die neueste Version von OpenVINO (2024.0) macht generative KI für reale Szenarien zugänglicher durch zusätzliche Modellunterstützung, reduzierte Arbeitsspeicherauslastung und die Einführung zusätzlicher Komprimierungstechniken für große Sprachmodelle (LLMs). Zusätzlich haben Entwickler jetzt mehr Flexibilität bei der Arbeit mit dem Framework ihrer Wahl. Starten Sie den Download jetzt und beginnen Sie, KI-Lösungen zu entwickeln.
Produkt- und Leistungsangaben
Die Leistungseigenschaften variieren je nach Verwendung, Konfiguration und anderen Faktoren. Weitere Informationen finden Sie auf der Performance-Index-Website.