KI: Wie Ihnen Ihre bestehende Infrastruktur das bieten kann, was Sie brauchen

Reduzieren Sie mögliche Risiken der KI und senken Sie die Einstiegsbarrieren mithilfe der vorhandenen Infrastruktur.

Die Antwort darauf, wie viel mehr Sie durch maschinelles Lernen und Deep Learning aus Ihren Daten herausholen können, hängt von den jeweiligen Anwendungsfällen ab. Sie hängt auch davon ab, wie groß das Interesse Ihrer Organisation an Experimenten ist.

Unterschiedliche Organisationen bzw. Unternehmen mögen bei ihrer Implementierung von künstlicher Intelligenz (KI) zwar unterschiedlich weit fortgeschritten sein, die Risiken durch das Experimentieren sind jedoch gering, wenn man für den Anfang auf seine bereits vorhandene IT-Infrastruktur zurückgreift. Als Unterstützung hat Intel eine Reihe verbreiterter Deep-Learning-Frameworks für die Intel®-Architektur optimiert, darunter TensorFlow*, Theano* und weitere.

Zusätzlich entwickelte Intel BigDL, um Deep Learning im Big-Data-Bereich einzusetzen. Dabei handelt es sich um eine Distributed-Deep-Learning-Bibliothek für Apache Spark* (DL Library for Apache Spark*), die direkt auf bestehenden Spark- oder Apache-Hadoop*-Clustern eingesetzt werden kann und es Ihren Entwicklerteams ermöglicht, Deep-Learning-Anwendungen wie Scala- oder Python-Programme zu schreiben.

BigDL verwendet in jedem Spark-Task die Intel® Math Kernel Library (Intel® MKL) und Multithread-Programmierung. Das trägt zu einer hohen Leistung bei und verbessert die Leistungseigenschaften von Deep Learning im Vergleich zu Standard-Open-Source-Konfigurationen von Torch* oder TensorFlow auf einem Einzelknoten mit Intel® Xeon® Prozessor.

Die Risiken beim Experimentieren mit KI sind geringer, weil die Unternehmen für den Anfang ihre bereits bestehende Rechenzentrumsinfrastruktur verwenden können.

Drei KI-Anwendungsfälle, die in fast jeder Branche von Bedeutung sein können

Intel sieht drei Schlüsselbereiche, in denen Unternehmen auf der Grundlage ihrer vorhandenen Rechenzentrumsinfrastruktur mit KI experimentieren: Bilderkennung, Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) und voraussagende Instandhaltung (Predictive Maintenance). Und wenn es sinnvoll erscheint, die vorhandenen Kapazitäten zu erweitern, kann der Einsatz von Open-Source-Frameworks mit Ihrer bestehenden Rechenzentrumsarchitektur die KI-Einführung im gesamten Unternehmen erheblich vereinfachen.

1.) Bilderkennung

Die Bilderkennung wird gegenwärtig in der Qualitätskontrolle (zur Erkennung von Defekten), für Sicherheitsmaßnahmen (Scannen von Gesichtern und Autokennzeichen) und in der Medizin (Tumorerkennung) eingesetzt.

Ein Problem besteht für Unternehmen häufig darin, genügend Daten für das Trainieren der Bildklassifizierungs- und Bilderkennungsalgorithmen bereitzustellen, und die Vorverarbeitung von Bildern kann mehr als die Hälfte der gesamten Zeit bis zur Lösung in Anspruch nehmen. Intel® Xeon® Prozessoren können Anwendungen für die Erweiterung der Datenmenge (Data Augmentation) unterstützen, um dieses Problem zu lösen. Solche Anwendungen drehen und skalieren Bilder und verändern die Farben, so dass weniger Bilder benötigt werden, um Bilderkennungsalgorithmen (abhängig vom Anwendungsfall) effektiv zu trainieren.

Dank ihrer Energieeffizienz und hohen Speicherbandbreite bewältigen die CPUs Data-Augmentation-Anwendungen spielend. Das gilt insbesondere für die skalierbare Intel® Xeon® Prozessorreihe bei der die Verarbeitung durch die Befehle der Intel® Advanced Vector Extensions 512 (Intel® AVX-512) beschleunigt wird.

Dank ihrer Energieeffizienz und hohen Speicherbandbreite bewältigen die CPUs Data-Augmentation-Anwendungen spielend.

2) Verarbeitung natürlicher Sprache

Sprachaktivierte virtuelle Assistenten können nicht nur Anforderungen präzise erfüllen, sondern auch die Art der Anforderungen „verstehen“, um sich ständig zu verbessern. In entsprechender Weise kann die Kundenzufriedenheit mithilfe von Systemen gesteigert werden, die Callcenter-Aufzeichnungen oder handgeschriebene Formulare verarbeiten können – eine Fundgrube zuvor verborgener Einblicke, die genutzt werden können, um häufig vorkommende Beschwerden zu erkennen oder schneller auf Probleme von Kunden zu reagieren.

Natural Language Processing (NLP) nutzt die als „rekurrentes neuronales Netz“ (RNN) und „Long short-term Memory“ (LSTM, langes Kurzzeitgedächtnis) bekannte Technik, und bei der Verarbeitung der Schleifen und Abhängigkeiten, die diese Operationen kennzeichnen, kommen die Intel® Advanced Vector Extensions 512 (Intel® AVX-512) voll zur Geltung.

3) Vorausschauende Instandhaltung (Predictive Maintenance)

Die voraussagende Instandhaltung unterscheidet sich von den Verfahren der Bilderkennung und der Verarbeitung natürlicher Sprache insofern, als sie üblicherweise mit wesentlich geringeren Datenraten arbeitet und die Daten von Sensoren für die Überwachung von Betriebsbedingungen des Endgeräts erfasst werden. Idealerweise sollte ein möglichst großer Anteil an der Verarbeitung bereits auf der Endgeräteebene erfolgen, bevor Daten zur Analyse bzw. als Entscheidungsgrundlage in die Cloud transferiert werden. Der mit einer VPU (Vision Processing Unit) bestückte Intel® Movidius™ Neural Compute Stick eignet sich ideal für die Deep-Learning-Beschleunigung am Netzwerkrand (Edge).

Jetzt mit KI beginnen

Die Leistungsfähigkeit der KI wird durch eine Kombination von Rechenleistung, Software-Optimierungen und Speicherbandbreite des Prozessors bestimmt; und unabhängig davon, wie weit Sie mit Ihrer KI-Implementierung fortgeschritten sind, bietet Ihnen Intels Portfolio an Hardware und Software ein reichhaltiges Instrumentarium für den Aufbau einer möglichst kosteneffektiven Architektur für KI-Aufgaben.

Künstliche Intelligenz

Lösungen mit Intel-Technik unterstützen Unternehmen dabei, schneller Lösungen zu finden, den Betrieb zu automatisieren und bessere Erkenntnisse zu gewinnen.

Weitere Infos

Aufbau einer KI-Machbarkeitsstudie

Entdecken Sie, was eine effektive KI-Machbarkeitsstudie ausmacht.

Infografik anzeigen