Edge Computing findet Einzug in den Mainstream, da Unternehmen versuchen, die Cloud auf lokale Standorte auszudehnen und die Vorteile von IoT und transformativen digitalen Geschäftsanwendungen zu nutzen. I&O-Führungskräfte müssen Edge Computing in ihre Cloud Computing-Pläne einbeziehen, um langfristig eine Grundlage für neue Anwendungstypen zu schaffen.1
Herausforderung
Die Techniken zur Handhabung und Verarbeitung von Datenverarbeitungslasten in Unternehmen, die die Bereiche Betriebstechnologie (OT), Kommunikationstechnologie (CT) und Informationstechnologie (IT) umfassen, haben sich in den letzten Jahren stetig weiterentwickelt. Das Management komplexer Interaktionen in einer Umgebung, die sich vom Rechenzentrum bis zum Netzwerkrand erstreckt und hybride und Multi-Cloud-Dienste umfasst, erfordert Fähigkeiten zur fließenden Skalierung von Rechen-, Speicher- und Netzwerkressourcen, um den sich schnell ändernden Anforderungen gerecht zu werden. Man geht davon aus, dass bis 2022 fünfzig Prozent der Unternehmensdaten am Rande des Netzwerks erstellt und verarbeitet werden, und dieser Anteil wird bis 2025 auf fünfundsiebzig Prozent ansteigen.2 Diese Zunahme der Datenverarbeitung am Rande des Netzes beschleunigt die Nutzung von Cloud-nativem Edge Computing und verteilten Cloud-Diensten.
Kommunikationsdienstleister (CSPs) stehen unter dem Druck, 5G-Investitionen zu monetarisieren. Edge-Computing schafft verschiedene Möglichkeiten für CSPs, Enterprise-Edge-Anwendungsfälle zu erfüllen, indem sie verschiedene 5G-Funktionen wie ultra-reliable low-latency (uRLLC) nutzen, um den Unternehmensumsatz und das Kundenerlebnis zu steigern. Die Entwicklung von KI-Modellen am Edge und deren Verwaltung stellt eine zentrale Herausforderung für CSPs dar, wenn es darum geht, neue Enterprise-Edge-Anwendungsfälle zu adressieren3
Cloud-natives Edge Computing hat sich als effektives Mittel zur Erfüllung von Unternehmensanforderungen erwiesen. Zahlreiche Unternehmen erkunden den Einsatz einer konvergenten, standardbasierten Infrastruktur auf der Grundlage von Containertechnologie und Microservices, um die Flexibilität zu verbessern, die Sicherheit zu erhöhen und Verbindungen mit niedriger Latenz und hoher Bandbreite zwischen der Cloud und dem Edge aufzubauen.
Frühere Bemühungen, die Anforderungen von Unternehmen zu erfüllen, nutzten virtualisierte Netzwerkhardware und setzten virtuelle Netzwerkfunktionen (VNFs) ein, um Kosten zu senken und zusätzliche Mehrwertdienste zu entwickeln. Da dieses Modell stark auf virtuelle Maschinen setzt, um Arbeitslasten und Ressourcen auszugleichen, hat es in der Branche einige Erfolge erzielt, stellt aber auch höhere Anforderungen an das Netzwerk, in dem die VNFs laufen. Ein flinkeres, ressourceneffizientes Modell, das auch auf Universal Customer Premises Equipment (uCPE) eingesetzt wird, nutzt die Vorteile der Container-Technologie und von Open-Source-Komponenten, um eine stabilere und besser verwaltbare Lösung zu bieten.
Die Hauptprobleme, mit denen sich Unternehmen konfrontiert sehen, wenn sie Edge-Computing-Implementierungen in ihrem Unternehmen zur Konsolidierung von OT-, CT- und IT-Operationen evaluieren, sind
- Problemloser Zugang zu Cloud-basierten Diensten: Unternehmenskunden benötigen eine offene, flexible und kosteneffiziente Möglichkeit, die Vorteile zu nutzen, die sich aus der Ausweitung der Cloud auf den Unternehmensrand ergeben. Die Geschwindigkeit und Einfachheit, mit der Netze konfiguriert werden können, um den Rand zu erreichen, ist ein wichtiger Aspekt.
- Verbesserung der geschäftlichen Flexibilität: Unternehmenskunden bemühen sich um den Aufbau von Systemen, die auf sich schnell ändernde Geschäftsbedingungen reagieren können, ohne große Summen in spezialisierte Hardwarekomponenten oder proprietäre Software zu investieren. Die Beweglichkeit wird auch durch die Verfügbarkeit eines einfachen, sicheren Mittels zur Erlangung einer unternehmensweiten Internetkonnektivität verbessert, ohne dass eine benutzerdefinierte, proprietäre Lösung erforderlich ist.
- Vereinfachung der Personalanforderungen: Unternehmen sind darauf angewiesen, den Personalschulungsbedarf vor Ort durch automatisiertes Software-Lifecycle-Management, Richtlinienkontrolle durch eine einheitliche Sichtweise und rationalisierte Wartungsprozesse zu reduzieren.
- Suche nach Möglichkeiten zur Senkung der Investitions- und Betriebskosten: Mit der Konsolidierung von CT-, IT- und OT-Workloads auf einem einzigen Edge-Server lassen sich Kosteneinsparungen erzielen, die die Ausgaben für Ausrüstung und Betriebskosten senken.
- Entwicklung von zuverlässigen, interoperablen CPE-Implementierungen: Zur Auswahl der Hardware- und Softwarekomponenten für die Bereitstellung einer bewährten, funktionalen Cloud-nativen Lösung müssen verschiedene Fragen geklärt werden, darunter Netzwerkkonnektivität, Orchestrierung, organisatorische Sicherheit und Plattformentwicklung.
- Unterstützung beim Schutz von Daten und bei der Einhaltung von Vorschriften zur Datenaufbewahrung und zum Datenschutz: Durch die Nutzung der verschiedenen maschinellen Lernanwendungen, die Cloud-Dienste bieten, können Unternehmen profitieren und gleichzeitig ihre Daten schützen.
- Verbesserung der Anwendungslatenz: Die Datenverarbeitung muss zunehmend näher am Ort der Datenerzeugung erfolgen, insbesondere bei prädiktiven KI-Analyseanwendungen.
- Verbesserte Sichtbarkeit: CloudOps-Teams, die eine große Anzahl von Edge-Cloud-Standorten und -Anwendungen verwalten, benötigen eine konsistente Sichtbarkeit ihrer digitalen Plattform für jeden Standort.
- Erhöhte Verfügbarkeit: Verteilte Edge-Cloud-Standorte vor Ort sorgen für eine höhere Systemverfügbarkeit und verringern die Abhängigkeit von manuellen Prozessen.
Lösung
Eine technologische Partnerschaft zwischen Intel, IBM® und Red Hat bietet eine zukunftsweisende Cloud-native Lösung für Unternehmenskunden, die von Edge-to-Cloud-Services profitieren möchten, die auf standardbasierten Komponenten basieren. Eine neue Enterprise-Edge-Lösung für universelle CPE - mit Red Hat® OpenShift®, IBM Cloud Satellite und IBM Cloud Pak for Network Automation - begegnet den zentralen Herausforderungen von Unternehmen bei der Migration zu Cloud-nativen Umgebungen und der Verbindung von On-Premises-Systemen am Edge mit Cloud-Ressourcen. Diese Enterprise Edge-Lösung arbeitet mit handelsüblicher Hardware auf Basis der Intel®-Architektur und bietet eine breite Palette von Netzwerkdiensten, darunter ein softwaredefiniertes Wide Area Network (SD-WAN) für höhere Verfügbarkeit, Firewall, Routing- und Switching-Dienste, Wi-Fi und mehr. Weitere Funktionen können in der Lösung aktiviert werden, z. B. ein Wireless Access Gateway (WAG), Unterstützung für künstliche Intelligenz/Maschinenlernen (AI/ML), Internet of Things (IoT)-Funktionen usw.
Die Lösung begegnet diese Herausforderungen:
Zugang: Diese getesteten und validierten Hardware- und Softwarekomponenten bieten einen rationalisierten Ansatz für die Entwicklung und Implementierung einer Cloud-nativen Infrastruktur vor Ort. Mit dieser Lösung erhalten Unternehmen nahtlose Konnektivität für die Kommunikation mit Zweigstellen überall auf der Welt in einem verwaltbaren, sicheren und einfach zu implementierenden Rahmen. Die Kubernetes-basierte Umgebung arbeitet auf Red Hat OpenShift Cluster Manager, weist Rechen-, Netzwerk- und Speicherressourcen zu und gleicht Arbeitslasten aus, so dass Unternehmenskunden flexiblen, erweiterbaren Zugang zu Cloud-basierten Diensten erhalten. IBM Cloud Satellite erweitert die IBM Cloud Services am Unternehmensrand mit Red Hat OpenShift Kubernetes Service (ROKS).
Agilität: Die Container-Plattform - Red Hat OpenShift Container Platform Plus - ist die erste Cloud-native Lösung für die Handhabung virtualisierter und containerisierter Prozesse. Über diese Plattform können Unternehmenskunden Anwendungen und Microservices schnell in Niederlassungen vor Ort bereitstellen und Automatisierung, fortschrittliche, von KI gesteuerte Bereitstellungsfunktionen und Software Lifecycle Management zur Unterstützung von Geschäftspraktiken und -richtlinien anwenden. IBM Cloud Pak for Network Automation trägt zu dieser Lösung bei und bietet Unternehmen einen KI-gesteuerten, automatisierten Netzwerkbetrieb und eine Plattform für die schnelle Entwicklung und Bereitstellung neuer Dienste am Netzwerkrand. IBM Cloud Satellite bietet konsistente Tools zur Verbesserung der Entwicklungsgeschwindigkeit bei der Bereitstellung von Public Cloud- und Edge-Anwendungen.
Vereinfachter Personalschulungsbedarf: Die Enterprise Edge-Lösung minimiert den Bedarf an spezialisiertem, geschultem Personal für die Durchführung von Wartungs-, Aktualisierungs- und Konfigurationsaufgaben im Netzwerk oder mit dem uCPE am Edge. Das zentralisierte Kontrollmodell der Lösung bietet richtliniengesteuerte Automatisierung und kann mit KI Tools kombiniert werden
Entwicklung von CPE
Die Entwicklung von CPE hat sich in mehreren Stufen vollzogen - von Blackbox-Appliances (d. h. ohne Konfigurierbarkeit) über Greybox-Appliances (mit eingeschränkter Konfigurierbarkeit) bis hin zu containerisierten Microservices, die über die Cloud verteilt werden, und Whitebox-Appliances (d. h. mit vollständiger Konfigurierbarkeit) uCPE. Das Aufkommen von 5G-Netzwerken und virtualisierten Funkzugangsnetzen (vRAN) verspricht eine größere Bandbreite an Netzwerkdiensten, die durch drahtlose Konnektivität erweitert werden.
Durch das Segmentieren, Partitionieren und Sichern des Datenverkehrs, der das Netzwerk durchquert, gibt SD-WAN Unternehmen ein effektives Mittel an die Hand, um die allgemeine Sicherheit von einem einzigen Kontrollpunkt aus zu verbessern und die Verbindungen zwischen Zweigstellen, Rechenzentren und der Cloud zu verwalten.
Mit der Weiterentwicklung der Netzwerkfunktionen im Telekommunikationssektor vom traditionellen hardwarebasierten Ansatz hin zu virtuellen Netzwerkfunktionen (VNFs) und Cloud-nativen Container-Netzwerkfunktionen (CNFs) hat eine Evolution stattgefunden.
zur intelligenten Verwaltung vieler Randprozesse im Unternehmen. Beim IBM Cloud Satellite handelt es sich um eine von IBM verwaltete Lösung für Cloud-Services, die eine einheitliche Sicht auf Workloads in verteilten Clouds, Site Reliability Engineering (SRE) Management von Cloud-Services und regelbasierte Konfiguration und Bereitstellung von Kubernetes-Ressourcen bietet.
Lower CapEx and OpEx: Die OpenShift Container Platform gestattet es, verschiedene Anwendungen auf einem gemeinsamen Kernel auszuführen und so die Konsolidierung von CT-, OT- und IT-Operationen auf einem einzigen Server zu unterstützen. Die Verwendung von Containern für den Unternehmensbetrieb hat einen viel kleineren Fußabdruck und eine niedrigere Verwendung von Energie als voll funktionsfähige virtuelle Maschinen.
Die Entwicklung und Verwaltung von VMs kann komplex sein. Jede VM enthält ein separates Image des Betriebssystems und hat einen Speicherbedarf, der in der Regel in den Bereich von mehreren Gigabyte fällt. Die Portabilität von Anwendungen über hybride Clouds oder Edge-Computing-Installationen hinweg ist sehr begrenzt. Im Vergleich dazu bieten Container eine hervorragende Portabilität zwischen lokalen und Cloud-Umgebungen, einen geringeren Platzbedarf im Megabyte-Bereich, eine einfachere Verwaltung als VMs, eine integrierte Methode für effiziente Software-Aktualisierungen und Patches sowie schnelle Startzeiten für Anwendungen. IBM Cloud Satellite Infrastructure Services bieten eine dedizierte Cloud-Infrastruktur vor Ort als Service (IaaS) mit monatlichem OpEx-Verbrauch und flexibler Dimensionierung ohne langfristige Infrastrukturverpflichtungen. Diese Faktoren tragen zu niedrigeren CapEx- und OpEx-Werten für das Unternehmen bei.
Vertrauen Sie auf standardbasierte Komponenten: Die Enterprise Edge-Lösung für universelle Kundenendgeräte besteht aus Open Source-Komponenten, die das Design, die Entwicklung und den Einsatz einer Komplettlösung erleichtern, Interoperabilitätsprobleme minimieren und über das Edge Computing- und IoT-Ökosystem über zahlreiche Add-ons und Erweiterungen verfügen. Die Architekturunterstützung für Intel® Smart Edge Open gewährt Entwicklern Zugang zu einem Software-Toolkit für Multi-Access Edge Computing (MEC), mit dem sie die Servicefähigkeiten verbessern und die Leistung für eine Vielzahl von Unternehmensanwendungen optimieren können.
Die Red Hat OpenShift Container Platform erweitert die Flexibilität und Interoperabilität einer offenen, auf Standards basierenden Infrastruktur auf einen breiten Bereich von Cloud-nativen Verwendungszwecken und bietet Unternehmen, die am Rande des Internets operieren, Automatisierungs- und erweiterte Verwaltungsfunktionen.
Hohe Verfügbarkeit und Sicherheit: Die zur Verfügung stehenden Cloud-nativen Netzwerkfunktionen, die eine Container-Firewall und intelligente SD-WAN-Funktionen umfassen, bieten starke Sicherheit und hohe Verfügbarkeit für externe Konnektivitätsoptionen.
Red Hat Zutaten und Beiträge
Die Enterprise Edge-Lösung umfasst Red Hat OpenShift Container Platform Plus, eine Plattform der nächsten Generation für das Hosting von Cloud-nativen Anwendungen. Red Hat OpenShift Container Platform ist eine unternehmenstaugliche Kubernetes-Container-Plattform mit vollständig automatisierten Abläufen zur Verwaltung von Hybrid-Cloud- und Multi-Cloud-Implementierungen. Es trägt dazu bei, Anwendungen schneller bereitzustellen und Entwickler produktiver zu machen. Die automatische Lebenszyklusverwaltung bietet mehr Sicherheit, maßgeschneiderte Betriebslösungen, einfach zu verwaltende Cluster-Operationen und die Portabilität von Anwendungen. Diese bahnbrechende Lösung - die erste markttaugliche, Cloud-native Implementierung für die Bereitstellung umfangreicher uCPE-Dienste - wurde für eine verbesserte Leistung und Zuverlässigkeit auf einer Plattform mit Intel-Architektur optimiert.
Red Hat OpenShift Platform Plus bietet eine einzige Hybrid-Cloud-Plattform für Unternehmen zum Erstellen, Bereitstellen, Ausführen, Verwalten, Automatisieren und Sichern von intelligenten Anwendungen beim Skalieren. OpenShift Platform Plus umfasst:
- Red Hat OpenShift Container Platform - ein komplettes Servicepaket, das Entwicklern hilft, Anwendungen schnell zu kodieren und gleichzeitig Flexibilität und Effizienz für IT-Betriebsteams bietet.
- Red Hat Advanced Cluster Security for Kubernetes - eine Lösung, die Kubernetes-native Sicherheit bietet, um die Sicherheit von Infrastruktur und Workloads über den gesamten Lebenszyklus von Anwendungen zu verbessern.
- Red Hat Advanced Cluster Management für Kubernetes - für eine erweiterte Sichtbarkeit einer gesamten Kubernetes-Domäne mit integrierten Governance- und Application Lifecycle Management-Funktionen.
Mit dieser Lösung werden die Fähigkeiten von Red Hat OpenShift Container Platform Plus durch mehrere andere Red Hat-Lösungen ergänzt, darunter:
- Red Hat Ansible Automation Platform - Bietet die Grundlage für die Erstellung und den Betrieb von Automatisierungslösungen in einem Unternehmen. Die Plattform umfasst alle Tools, die zur Implementierung einer unternehmensweiten Automatisierung für die Bereitstellung und Konfiguration von uCPEs und das Lebenszyklusmanagement von Cloud-nativen Container-Netzwerkfunktionen (CNF) und virtuellen Netzwerkfunktionen (VNFs) in Unternehmensniederlassungen auf der ganzen Welt erforderlich sind.
- Red Hat Enterprise Linux - Bietet bewährte Zuverlässigkeit und Skalierbarkeit für eine Vielzahl von Betriebsumgebungen - Bare Metal, virtuell, Container und Hybrid Cloud.
IBM Bestandteile und Beiträge
IBM sorgt für verteilte Cloud-Services am Unternehmensrand mit Bring-your-own-Hardware und IaaS-Optionen mit Technologie für die Automatisierung, Orchestrierung und das Lifecycle-Management von Netzwerkfunktionen und Anwendungen. Zu den von IBM beigeführten Technologien gehören:
- IBM Cloud Satellite - Implementiert und führt Anwendungen konsistent in lokalen, Edge-Computing- und öffentlichen Cloud-Umgebungen von beliebigen Herstellern aus.
- IBM Cloud Pak for Network Automation - Die KI-gestützte Cloud-Plattform für Telekommunikationsunternehmen automatisiert den Netzwerkbetrieb mit einfacher Bedienung.
- IBM Edge Application Manager - Skalieren und betreiben Sie Edge-Lösungen in verschiedenen hybriden Umgebungen unter Verwendung autonomer Verwaltungstechniken.
IBM Cloud Satellite und Red Hat OpenShift versetzen Kommunikationsdienstleister (CSPs) in die Lage, die Telco-Cloud zu erweitern, indem sie On-Premises-CPE-Funktionen für kleine und mittelständische Unternehmen bis hin zu Großunternehmen bereitstellen. Dies trägt dazu bei, Möglichkeiten für neue verwaltete Carrier-Grade-Produkte und -Dienste zu schaffen.
Zutaten und Beiträge von Intel
Die Hardwarebasis, auf der die Enterprise Edge-Lösung läuft, besteht aus Intel® Atom® Prozessoren, Intel Xeon® D Prozessoren und skalierbaren Intel® Xeon® Prozessoren. Intel hat über mehrere Jahre hinweg verschiedene Edge-Implementierungen vorangetrieben, darunter IoT, Enterprise und Network Edge, und arbeitet aktiv mit Ökosystempartnern zusammen, um eine effizientere Konvergenz von Workloads unter Verwendung neuer uCPE-Technologien zu erreichen. Lösungsreferenzen und Leistungsüberprüfungen gewährleisten eine bewährte, vorhersehbare Workload-Verarbeitung und hohe Zuverlässigkeit.
Die Konfigurationen für die Enterprise Edge-Lösung variieren je nach den spezifischen Verwendungszwecken. Als die digitale Transformation bei den Kommunikationsdienstleistern Einzug hielt, entwickelte Intel in enger Zusammenarbeit mit Red Hat ein Referenzdesign für die Network Functions Virtualization Infrastructure (NFVI), um CSPs produktionsreife Dienste zu bieten. Das Referenzdesign bietet eine Grundlage für Partner unabhängiger Hersteller (ISV), die Netzwerk-Cloud-Designlösungen, einschließlich uCPE-Implementierungen, entwickeln, um die Interoperabilität der Komponenten sicherzustellen. Eine weitere nützliche Funktion des Referenzdesigns ist die Verwendung von Details aus Leistungstests als Maßstab für die Festlegung von Service Level Agreements.
Als agile Plattform für den Aufbau einer Cloud-nativen Architektur bieten die Bestandteile von Intel diese Vorteile für Unternehmenskunden:
- Flexible Workload-Kapazität - Die Architektur, die auf dem Intel Atom Prozessor, dem Intel Xeon D Prozessor und der Produktreihe der skalierbaren Intel® Xeon® Prozessoren basiert, deckt den gesamten Bereich der Workloads ab, die in Unternehmen anfallen. Zu den Verwendungszwecken gehören Web-, Datenbank-, Netzwerk-, Sicherheitsanwendungen, Kryptographie, Big Data und KI-Inferenz.
- Starke Containersicherheit - Im Umfeld von Umgebungen, in denen hohe Sicherheit Priorität hat, hilft die Virtualisierungstechnologie auf der Grundlage der Intel-Architekturfunktionen sicherzustellen, dass Container und zugehörige Microservices auf Containerebene isoliert sind.
- Beschleunigte kryptografische Operationen - Die Unterstützung für optimierte, schnelle kryptografische Prozesse bietet optimalen Schutz für Daten in der Verwendung, bei der Übertragung und im Ruhezustand.
- Erhöhte Datensicherheit - Anwendungen, die mit Hilfe der Containertechnologie verteilt werden, können bei vertraulichen Computeraufgaben streng eingegrenzt und die Rechte genau kontrolliert werden.
- Vorteile der Plattformsicherheit - Um einen hohen Grad an Plattformsicherheit aufrechtzuerhalten, helfen die auf der Intel-Architektur basierenden Funktionen bei der Sicherung von Boot-Prozessen, der Plattform-Attestierung und einem Kubernetes-kompatiblen Framework.
Ergänzend zu den Silizium-Innovationen leistet Intel seit vielen Jahren einen führenden Beitrag zur Entwicklung der Open Source Software Community. Seine Beiträge umfassen die Arbeit für die Cloud Native Computing Foundation (CNCF), die sich mit der Cloud-Native-Entwicklung befasst und es dem Ökosystem ermöglicht, Hardware-Funktionen vollständig und nahtlos zu nutzen. Dies schließt auch das grundlegende Kubernetes-Projekt ein, das ein flexibles und erweiterbares Plugin-Framework unterstützt, sowie NFD-Erweiterungen (Node Feature Discovery), die die Erkennung und Nutzung einzigartiger Hardware-Funktionen auf herstellerneutrale Weise ermöglichen.
Intel entwickelte auf diese Weise einen großen Bereich von Erweiterungen und trug zu CNCF-Projekten für Service Mesh, Netzwerkkonnektivität, Storage, Optimierung der Netzwerkdatenebene, Planung und viele weitere Bereiche bei. Auch wenn es stimmt, dass Cloud-native Technologien und Software-Innovationen viele der Komplexitäten der zugrundeliegenden Topologien in Netzwerken und Edge-Computing-Infrastrukturen abstrahiert haben, wurden wichtige Aspekte dieser Marktsegmente nicht berücksichtigt, und es wurde ein Overhead eingeführt, der den einzigartigen Anforderungen bestimmter Anwendungen in diesem Bereich nicht gerecht wurde. Die Innovation von Intel gestattet es, auf relativ transparente Weise Hardware-Funktionen zu entdecken und zu nutzen, wodurch Netzwerke und Edge Computing zu erstklassigen Bürgern in der cloudnativen Landschaft werden.
Intel entwickelt in Zusammenarbeit mit der Open Source Community innovative Lösungen wie Red Hat OpenShift und Intel Smart Edge Open, ein lizenzfreies Edge-Computing-Software-Toolkit, das für Edge-Computing-Anwendungen auf der Intel Architektur optimiert ist. Das Toolkit verfügt über eine zertifizierte Kubernetes-Distribution mit flexiblen und einfachen Entwicklungspfaden und einem optimierten Satz von Funktionen, die das Onboarding und die Verwaltung von Anwendungen und Netzwerkfunktionen in jeder Art von Netzwerk unterstützen.
Fähigkeiten der Lösung und Vorteile für Unternehmen
Die Bewegung weg von den traditionellen Appliances bietet Unternehmen eine enorme Chance, die Effizienz, Agilität und Verwaltbarkeit zu verbessern, indem sie zu einer universellen CPE-Umgebung auf der Basis von CNFs und VNFs übergehen. Die folgenden Abschnitte fassen die Möglichkeiten und Vorteile zusammen, die sich daraus ergeben.
Konvergenz erhöht die Agilität und Effizienz von Prozessen
Konvergenz ist ein immer wiederkehrendes Thema bei der Bewertung der Fähigkeiten und Vorteile von Enterprise Edge-Implementierungen. Bob Ghaffari, General Manager der Enterprise and Cloud Networking Division von Intel, hat verschiedene Ansätze für die Konvergenz im Auge, darunter die Konvergenz von Workloads, die Konvergenz von Orchestrierungs-, Verwaltungs- und Infrastrukturplattformen sowie die Konvergenz von Hardwareplattformen. Ghaffari erläuterte einige der Projekte, an denen Intel beteiligt ist: „Ein gutes Beispiel für diesen Technologietrend ist ein Videoanalyse-Workload für den Einzelhandel auf einer uCPE-Plattform, der Seite an Seite mit Netzwerk- und Sicherheitsfunktionen läuft. Wir sehen, dass unsere Ökosystempartner Lösungen rund um diese Konvergenz entwickeln;
Wenn wir es schaffen, offene Standardspezifikationen zu verwenden, eine offene Architektur zu definieren und offene Plattformen zu schaffen, mit denen jeder innovativ arbeiten kann, bedeutet das, dass wir alle Lösungen viel schneller auf den Markt bringen können. So ermöglicht Offenheit uns allen, durch Zusammenarbeit zu gewinnen. Aber sie ermöglicht es uns auch, innovative Lösungen für unsere Kunden zu liefern und die Branche viel schneller voranzubringen.4
ein Beispiel ist QNAP. Sie haben Videoüberwachungs- und Videoanalysefunktionen auf einer uCPE-Plattform integriert, auf der auch SD-WAN- und vFirewall-Sicherheitsfunktionen laufen. Die Videoanalyse verwendet auf der Softwareschicht das OpenVINO™-Toolkit und auf der Hardwareschicht die Intel Movidius™ Myriad™ X Vision Processing Unit (VPU), um eine dedizierte neuronale Recheneinheit zur Beschleunigung von Deep Learning-Inferencing bereitzustellen. Außerdem haben sie Microservices aus dem Intel Smart Edge Open Toolkit als Teil ihres NFVI-Betriebssystems integriert, um Cloud-native Orchestrierungsfunktionen hinzuzufügen."5
DevSecOps-Praktiken stärken die Unternehmenssicherheit
Aufgrund der Zunahme bösartiger Angriffe auf Unternehmensnetzwerke hat DevSecOps (Entwicklung, Sicherheit und Betrieb) als Mittel zur Verhinderung von Sicherheitsverletzungen an Bedeutung gewonnen. Zur Bereitstellung der sicheren Container für geschäftskritische Anwendungen am Rande des Unternehmens ist es erforderlich, einen DevSecOps-Workflow einzuführen und die Planung und Gestaltung von Sicherheitsvorkehrungen bereits in den frühesten Phasen der Entwicklung zu integrieren. Das US-Verteidigungsministerium hat im Oktober 2020 den Container Hardening Guide veröffentlicht, um Organisationen, die sich einen starken Schutz für Container wünschen, Richtlinien an die Hand zu geben. Der Leitfaden beschreibt die DevSecOps-Praktiken, die angewendet werden sollten, um Sicherheitsverletzungen zu verhindern und Risiken bei der Verwendung der Container-Technologie zu minimieren.
Durch die Entwicklung seiner unternehmenstauglichen Kubernetes-Plattform - Red Hat OpenShift - hat Red Hat ein komplettes DevSecOps-Framework geschaffen, das viele integrierte Funktionen, verfügbare DevOps-Toolchains und empfohlene Lösungen von Sicherheitspartnern umfasst, um Methoden für eine einfachere Bereitstellung von Containern bei gleichzeitiger Risikominimierung und Identifizierung und Blockierung von Angriffsvektoren zu bieten. Das Framework und seine Möglichkeiten werden in einem Überblick über die DevSecOps-Lösung von Red Hat erörtert: How to deploy a comprehensive DevSecOps solution.
Die Aufgabe, eine effektive und sichere Kubernetes-Umgebung zur Unterstützung wichtiger Geschäftsanwendungen einzurichten, erfordert Voraussicht und Planung. DevSecOps-Praktiken können die Mission eines Unternehmens verbessern und die Sicherheit der gesamten Container-Plattform stärken.
Automatisierung reduziert den Wartungsaufwand und das Lebenszyklusmanagement
Die Wartungsaufgaben im Zusammenhang mit Cloud-basierten Zweigstellen, die über SD-WANs verbunden sind, können erheblich sein, und umfangreiche manuelle Prozesse sind anfällig für menschliche Fehler. Durch die Verwendung von intelligenter Automatisierung können komplexe Netzwerksysteme und Server effektiv verwaltet werden, wobei die Funktionalität der Komponenten und die Gesamteffizienz der Infrastruktur besser sichtbar werden.
IBM Cloud Pak for Network Automation bietet intelligente Automatisierungsfunktionen zur Orchestrierung virtueller und Cloud-nativer Netzwerkfunktionen innerhalb von Minuten sowie ein Portfolio von Edge-fähigen Anwendungen und Services. Mit der von IBM bereitgestellten Orchestrierungsschicht, die alle Komponenten des Stacks miteinander verbindet, können CSPs die Vorteile der Automatisierung voll ausschöpfen, z. B. durch Zero-Touch-Provisioning. So können CSPs sich durch neue Dienste mit anwendungsspezifischen Netzwerkfunktionen und -slices, die ohne kundenspezifische Integration implementiert werden, stärker vom Wettbewerb abheben.
Mit IBM Edge Application Manager können CSPs bis zu 40.000 Edge-Knoten einrichten und verwalten. Es nutzt das autonome Workload-Management, um den Zustand der Endpunkt-Knoten kontinuierlich zu überwachen. Es überwacht auch die Leistung von Anwendungen, einschließlich KI-Inferencing-Anwendungen, die auf diesen Knoten laufen.
Container-Technologie verbessert die Portabilität und Interoperabilität von Apps
Containerbereitstellungen am Unternehmensrand bieten Agilität, Sicherheit und Portabilität zur Unterstützung von Cloud-nativen Infrastrukturen und bieten eine Möglichkeit, vertraute Komponenten, Tools und Workflow-Prozesse zu verwenden, die Entwickler normalerweise in IT-Umgebungen verwenden. Die Verteilung von Patches und Aktualisierungen für Geschäftsanwendungen in Containern ermöglicht eine effiziente, gut sichtbare Verwaltung von Software-Lebenszyklen. Diese Fähigkeit verbessert auch die Sicherheit, da erkannte Schwachstellen schnell behoben werden können, indem neue Anwendungs-Binärdateien in Containern auf rationale, automatisierte Weise über mehrere Niederlassungen verteilt werden.
Container, die nach OCI-konformen Richtlinien erstellt wurden, funktionieren zuverlässig in allen Cloud-nativen Infrastrukturen, die die OCI-Standards einhalten. Dieser Ansatz ist eine Verbesserung gegenüber proprietären Lösungen für die Softwareverteilung, die Prozesse und Aufgaben verkomplizieren. Container vereinfachen die Portabilität von Anwendungen am Unternehmensrand und bieten eine effiziente Verwendung der verfügbaren Netzwerk-, System- und Speicherressourcen durch Virtualisierung.
Etwa 10% der von Unternehmen generierten Daten werden außerhalb eines traditionellen zentralen Rechenzentrums oder einer Cloud erstellt und verarbeitet. Gartner sagt voraus, dass diese Zahl bis 2025 75% erreichen wird."6
Fazit
Die Enterprise Edge-Lösung - die die Komponenten von Intel, Red Hat und IBM in einem auf Standards basierenden Framework kombiniert - bietet Unternehmen Cloud-native CPE-Edge-Dienste und damit das Äquivalent einer Cloud für Netzwerkdienste, die bei den Kunden vor Ort betrieben werden können. Für Unternehmenskunden mit weit verzweigten Niederlassungen, Service Provider und andere bietet die leichtgewichtige Portabilität der Red Hat OpenShift Container-Plattform und die von IBM bereitgestellte Orchestrierungssoftware ein zuverlässiges und kostengünstiges Mittel zur Bereitstellung von Netzwerkfunktionen. Die auf der Intel Architektur basierende Infrastruktur kann das Verarbeitungsniveau bereitstellen, das für verschiedene Anwendungen am Unternehmensrand benötigt wird, von kompakten, energieeffizienten Intel Atom Prozessoren über die Intel Xeon® Prozessorreihe für schwere Arbeitslasten bis hin zur skalierbaren Intel® Xeon® Prozessorreihe für KI/ML und Analytik.
Weitere Infos
Intel Smart Edge Open
Besuchen Sie die Smart Edge Open Website für weitere Informationen über die Entwicklung von Netzwerkanwendungen für Cloud-native Unternehmensoperationen.
Intel Network Builders
Intel Network Builders fördert ein dynamisches Technologieumfeld, das die Netzwerkumstellung von morgen anführt.
Über Red Hat
Red Hat ist der weltweit führende Anbieter von Open-Source-Lösungen für Unternehmen, einschließlich hochleistungsfähiger Linux-, Cloud-, Container- und Kubernetes-Technologien. Weitere Informationen finden Sie unter redhat.com.
Über IBM
IBM ist ein führendes Unternehmen für Cloud-Plattformen und kognitive Lösungen. Unser Unternehmen, das sich seit 1911 immer wieder neu erfindet, ist mit mehr als 350.000 Mitarbeitern, die für Kunden in 170 Ländern tätig sind, der größte Technologie- und Beratungsanbieter der Welt. Weitere Informationen finden Sie unter ibm.com.