SK Telecom: KI-Pipeline verbessert Netzwerkqualität

Beschleunigte durchgängige Netzwerk-KI-Pipelines verwenden Analytics Zoo, TensorFlow und Apache Spark in einer Intel® Architektur.

Auf einen Blick:

  • SK Telecom ist der größte Mobilfunkbetreiber in Korea. Das Unternehmen baut auf seiner Stärke bei mobilen Diensten auf und schafft Wert in den Bereichen Medien, Sicherheit und Handel.

  • Um die enormen Datenmengen zu analysieren, die im Netzwerk des Anbieters generiert werden, haben Entwickler von SK Telecom und Intel eine durchgängige Netzwerk-KI-Pipeline zur Vorhersage der Netzwerkqualität eingerichtet. Die gesamte Pipeline wird in einem einheitlichen Server-Cluster, der auf skalierbaren Intel® Xeon® Prozessoren basiert, mit Intel® Advanced Vector Extensions 512 und Intel® Deep Learning Boost ausgeführt, während Analytics Zoo-Software die Verwaltung der In-Memory-Datenpipelines sowie des verteilten Modell-Trainings und der Inferenz übernimmt.

BUILT IN - ARTICLE INTRO SECOND COMPONENT

Kurzübersicht:

Die manuelle Verwaltung der Netzwerkqualität wird für Kommunikationsanbieter (CoSPs) immer schwieriger, da in Multi-Gigabit-Netzwerken eine überwältigende Menge an Telemetriedaten erzeugt wird. Diese Herausforderung wächst mit der raschen Weiterentwicklung von 5G-Technik – und zwar aufgrund der großen Gerätezahl und der sehr hohen Datenraten. Daher wird es für CoSPs immer wichtiger, Kommunikationsnetzwerke auf intelligente und automatisierte Weise mithilfe künstlicher Intelligenz (KI) zu verwalten.

SK Telecom, der größte Mobilfunkbetreiber in Südkorea, verwaltet mehr als 400.000 Mobilfunkmasten und mehr als 27 Millionen Kunden. Das Netzwerk handhabt jede Sekunde 1,4 Millionen Datensätze, was pro Tag 120 Milliarden Datensätzen entspricht.1 Um diese enorme Menge an Daten effektiv analysieren zu können, haben Entwickler von SK Telecom und Intel unter Einsatz von Analytics Zoo und FlashBase eine durchgängige Netzwerk-KI-Pipeline zur Vorhersage der Netzwerkqualität entwickelt. Die Pipeline wird auf Servern mit Intel® Architektur ausgeführt, wobei ein um Arbeitsspeicher erweitertes TensorFlow-Modell für umfangreiche Zeitreihendaten in Apache Spark angewendet wird.

Die gesamte Pipeline (von FlashBase bis Spark DataFrames und TensorFlow) wird in einem einheitlichen Server-Cluster, der auf skalierbaren Intel® Xeon® Prozessoren basiert, mit Intel® Advanced Vector Extensions 512 (Intel® AVX-512) und Intel® Deep Learning Boost ausgeführt. Darüber hinaus kommt Analytics Zoo-Software zum Einsatz, um die In-Memory-Datenpipelines und das verteilte Modell-Training und die Inferenz automatisch zu handhaben. In von SKT durchgeführten Tests bietet diese KI-Pipeline im Vergleich zur bisherigen GPU-basierten Implementierung von SKT bei Deep-Learning-Training bis zu 4-mal und bei Inferenz bis zu 6-mal mehr Leistung.2 So kann SK Telecom eine Degradierung und abnormale Änderungen bei der Netzwerkqualität schneller vorhersagen und erkennen sowie proaktive Maßnahmen ergreifen, um die 5G-Dienstqualität zu gewährleisten.

Lesen Sie das Whitepaper – SK Telecom, Intel Build AI Pipeline to Improve Network Quality

Informationen über zugehörige Produkte und Lösungen

Skalierbare Intel® Xeon® Prozessoren

Mit den skalierbaren Intel® Xeon® Prozessoren lassen sich nutzbringende Erkenntnisse einfacher gewinnen. Darüber hinaus bieten sie hardwarebasierte Sicherheit und ermöglichen die dynamische Bereitstellung von Diensten.

Weitere Infos

Analytics Zoo

Skalieren Sie Ihre KI-Modelle nahtlos in Big-Data-Cluster mit Tausenden von Knoten für das verteilte Training und die verteilte Inferenz.

Weitere Infos

Intel® Deep Learning Boost

Die skalierbaren Intel® Xeon® Prozessoren setzen mit Intel® Deep Learning Boost neue Maßstäbe für integrierte KI-Leistung.

Weitere Infos

Produkt- und Leistungsinformationen

1Daten von SK Telecom, September 2020.
2Von SK Telecom im Februar 2020 durchgeführte Tests: Der Analytics Zoo-Server war ein Intel® Server System R2208WFTZSR mit einem Intel Xeon Gold 6240 Prozessor (2,6 GHz, Mikrocode 0x400002c). Der Server verfügte über drei Knoten und sechs Sockel. Sowohl die Intel® Hyper-Threading-Technik als auch die Intel® Turbo-Boost-Technik waren eingeschaltet. Die Gesamtkapazität des Arbeitsspeichers betrug 256 GB. CentOS 7.8 (Kernel 3.10.0) war das Betriebssystem; auf dem Server wurde die SK Telecom Lightning DB-Anwendung ausgeführt. Weitere Software beinhaltete Analytics Zoo v0.7, TensorFlow v1.15, Pandas v0.25.3, NumPy v1.18.0 und Dask v2.7.0. Der GPU-Server war ein HPE DL380 Gen 9 mit einem Intel Xeon E5-2680 v4 Prozessor mit 2,4 GHz (Microcode 0xb00001e) und einer NVIDIA P100-GPU (KI-Training)/K80 (KI-Inferenz). Der Server verfügte über einen Knoten und zwei Sockel. Sowohl die Intel Hyper-Threading-Technik als auch die Intel Turbo-Boost-Technik waren eingeschaltet. Die Gesamtkapazität des Arbeitsspeichers betrug 256 GB. CentOS 7.3 (Kernel 3.10.0) war das Betriebssystem; auf dem Server wurde die SK Telecom Lightning DB-Anwendung ausgeführt. Weitere Software beinhaltete TensorFlow GPU v1.12, Pandas v0.25.1, NumPy v1.14.5 und Dask v2.7.0.