Data-Storys: Drei Berichte von der Cloud Expo Europe

Wie steht es um die Verschlüsselung, die Datenanalyse und Massenspeicher?

Das Wichtigste im Überblick

  1. 1

    Quantencomputer haben das Potenzial, Sicherheitssysteme unbrauchbar zu machen – aber jetzt noch nicht.

  2. 2

    Je zielgenauer die Datenanalyse betrieben wird, desto kosteneffektiver wird sie.

  3. 3

    Zukunft im Rechenzentrum: Scale-out-Massenspeicher auf reiner Flash-Basis mit NVMe

Einmal mehr war die Cloud Expo Europe* in London vor Kurzem der Treffpunkt für alle, die mit Daten zu tun haben. Die Größen aus den Bereichen Datenanalyse, Massenspeicher und IT-Sicherheit tummelten sich mit Entwicklern und Dienstanbietern in einer Welt neuer Möglichkeiten, vom Software-definierten Irgendetwas bis zum Internet der Dinge.

Mit den aktuellen Trends Schritt zu halten, ist an sich schon eine große Aufgabe, aber es erwarten uns noch ganz andere Dinge, wenn man einen Blick in die nicht allzu ferne Zukunft wagt, in der Quantencomputer zu einer Standardplattform heranreifen. Laut Konstantinos Karagiannis, CTO Security Consulting bei BT Americas*, trennen uns höchstens noch drei Jahre von Quantencomputern und die Security Services sind eifrig dabei, diesen Bereich genauer unter die Lupe zu nehmen, denn er eröffnet Möglichkeiten, verbreitete Verschlüsselungstechniken zu knacken.

Statt binären Zuständen wie bei der klassischen Computertechnik arbeiten Quantencomputer mit Qubits („Quantenbits“), die gleichzeitig zwei Zustände einnehmen können und Berechnungen für komplexe probabilistische Aufgaben ermöglichen. Zumindest ist das die Theorie, denn Quantencomputer befinden sich derzeit noch in der Forschungs- und Entwicklungsphase.

„Man sollte Algorithmen entwickeln, bei denen man sicher ist, dass sie Erfolge bringen.“

Karagiannis ist jedoch überzeugt davon, dass wir uns auf die Möglichkeiten der Codeentschlüsselung durch Quantencomputer vorbereiten müssen, die mit Verfahren wie dem Shor-Algorithmus arbeiten, mit dem man die Periodizität von Zahlen herausfinden kann. Einfach gesagt, werden dabei wahrscheinliche Zahlenpaarungen ermittelt, die in Systemen wie der Public-Key-Kryptographie (PK) verwendet werden. Offenbar konnte in Laborversuchen nachgewiesen werden, dass dies eine effektive Methode ist, um PK-RSA-, Diffie-Hellman- und Elliptische-Kurven-Kryptographie zu knacken. Das letztere Kryptosystem findet in der Blockchain-Technik Anwendung (Bitcoin*).

„Ich habe mich auch mit der Sicherheit von Blockchain befasst. Auf dem Gebiet liegt noch einige Arbeit vor uns“, sagt Karagiannis und fügt hinzu: „Wir müssen Algorithmen schreiben und eine Verschlüsselung entwickeln, bei der die für Quantencomputer existierenden Algorithmen berücksichtigt werden. Wir können nicht einfach so tun, als ob so etwas wie PK sicher sei, denn das ist nicht der Fall.“

Im BT Adastral Park dauert die Arbeit am Quantenschlüsselaustausch (Quantum Key Distribution, QKD) für die sichere Kommunikation unvermindert an. Gegenwärtig geht es zwar nur um Punkt-zu-Punkt-Kommunikation, doch können damit sensible Daten zwischen Institutionen ausgetauscht werden, was Karagiannis als eine „Art wirklich fortschrittliches Einmal-Pad-System“ beschreibt. Eines, das bei einer Reichweite von rund 100 km durch Quantenkryptographie geschützte Daten mit 40 Gbit/s übertragen kann. Neuigkeiten zur weiteren Entwicklung sollen im Mai 2017 bekanntgegeben werden. Inzwischen sollte man in Erinnerung behalten, dass übliche Verschlüsselungsverfahren wahrscheinlich schon 2020 leicht zu knacken sein werden, aber Methoden der Quantenkryptographie in Arbeit sind.

Während die Verschlüsselung dazu dient, wertvolle Daten zu schützen, stellt sich für Davide Cervellin, Head of EU Analytics bei eBay*, eher die Frage, wie man Nutzen aus Daten ziehen kann. In seinem Vortrag zum Thema Wie Unternehmen zur datenorientierten Entscheidungsfindung gelangen können (How Companies Can Achieve Data-Centric Decision Making) stellte er fest, dass er einen Großteil seiner Zeit darauf verwandte, zu beurteilen, ob bestimmte Analysevorhaben überhaupt umgesetzt werden sollten. Man ist natürlich versucht zu experimentieren, doch er warnt davor: „Es gibt vieles, was man mit diesen Daten anfangen kann und die Hälfte davon sollte man nicht tun, weil es nutzlos ist. Es bringt nichts.“

Ist ein Vorhaben gewinnträchtig? Das scheint Cervellins Leitprinzip zu sein, zusammen mit einem klein gehaltenen Team. Er hat gerade einmal zehn Analytiker, um allen europäischen Interessen von eBay gerecht zu werden. Er stellt fest: „Das Problem ist, dass bei überall verteilten Daten das Risiko besteht, überall Analytiker sitzen zu haben, was sich nicht besonders effizient managen lässt, weil die Aufsicht fehlt. Jeder verfährt auf seine Weise“, was zur Folge haben kann, dass Arbeiten doppelt gemacht werden. Außerdem brauchen Analytiker Wachstums- und Entwicklungsspielraum. „Gute Analytiker wollen sich im Lauf der Zeit immer wieder mit anderen Dingen beschäftigen, wie Tag für Tag Neues zu lernen“, sagt er. „Wenn man sie zwei Jahre lang vor dieselbe Aufgabe stellt, verliert man sie.“

Laut Cervellin besteht die Lösung einfach darin, Dinge unterschiedlich anzugehen. Cervellin fokussiert sich nur darauf, was Nutzen bringt und beschreibt vier Phasen im Umgang mit Big Data. Alles beginnt mit der eifrigen Aufzeichnung von Daten: „Alles, was man jetzt nicht erfasst, ist für immer verloren“, gibt er zu bedenken. Auf die Datenerfassung folgt das Erstellen von Berichten und die Untersuchung von Trends. Er bezeichnet es als eine „Änderung der Philosophie“, wenn die Kontrolle das IT-„Untergeschoss“ verlässt und in die Marketing- und Geschäftsebene einzieht, in der datenbasierte Entscheidungen getroffen werden können. Hier sieht er die Relevanz, Mitarbeiter zu haben, die wissen, wie man die Daten nutzt und die erkennen können, welcher Wert in den Fragen steckt, auf die sie Antworten finden sollen.

Die letzte Phase ist die vorausschauende Analyse, für die Cervellin empfiehlt, den Wunsch, alles zu kontrollieren, aufzugeben und stattdessen rät: „Man sollte Algorithmen entwickeln, bei denen man sicher ist, dass sie Erfolge bringen. Da ist eine Blackbox, in der einige geheimnisvolle Rechnungen stattfinden und am Ende kommt das heraus, was man will. Bewertungsmaßstäbe werden nur an den Output angelegt. Was in der Box passiert, kümmert einen nicht mehr.“

Ist damit die Aufgabe erledigt? Nun, nicht so ganz. Das Analyseteam von Cervellin erstellt Prognosen für verschiedene Umsatzkategorien, von den Reaktionen auf Werbeaktionen und Marketingkampagnen bis zu saisonalen und anderen Preisänderungen. Die Fortschritte werden protokolliert und Abweichungen von den Zielen werden untersucht, wobei stets der Nutzen der Daten im Vordergrund steht. Mit diesem Konzept durchdrang die Datenanalyse die gesamte Firmenkultur – ein Kunststück, das mit Cervellins kleinem Team vollbracht wurde, das Aufgabenstellungen erkennt, die gewinnversprechend sind, was sich in robusten Algorithmen für die vorausschauende Analyse niederschlägt, die für den Vertrieb und das Marketing unverzichtbar sind. Und nun geht es mit einer neuen Zielsetzung zurück zum ersten Schritt.

Für Jack Zhang, Solution Architect bei Intels Non-Volatile Memory Solutions Group, stellt sich der Wert von Daten anders dar. Er hat einen eher praxisorientierten Blick auf die tatsächlichen Kosten in Verbindung mit steigendem Massenspeicherbedarf und der Kapazitätsplanung. Sein Vortrag drehte sich um die wachsende Verbreitung von rein auf Flash-Technik basierendem Scale-out-Datenspeicher im Enterprise-Umfeld und den Einsatz von NVMe-SSDs (Non-Volatile Memory Express) für die Plattformoptimierung.

Laut Zhang liegen die Vorteile klar auf der Hand, nachdem dank NVMe die geringe Latenz und der hohe Datendurchsatz von SSDs nicht mehr durch ältere Softwarecontroller mit SATA/SAS-Schnittstelle zunichte gemacht werden. Die NVMe-Schnittstelle nutzt den PCIe-Bus und folgt einer standardisierten Spezifikation, was die Verbreitung dieses neuen Protokolls für Massenspeicher beschleunigt hat.

„Im Vergleich zu vor zwei Jahren ist das Technologieumfeld für NVMe ausgereift“, so Zhang, der ein SSD im vertrauten 2,5-Zoll-Format in Händen hielt, allerdings handelte es sich dabei um ein Intel® DC-P3520-SSD – ein NVMe-Modell mit hot-plug-fähiger U.2-Schnittstelle. Er zählte die Namen großer Anbieter auf, die NVMe-Datenspeichersysteme fertigen, wie etwa Supermicro* mit einem 4-HE-Rahmen, der 48 U.2-Anschlüsse bietet und das Lightning*-Design von Facebook*, ein Open-Compute-Projekt*, bei dem 60 U.2-SSDs in ein 2-HE-Rack gepackt werden.

Zhang ist jedoch vor allem davon begeistert, wie NVMe die Tür zu neuen Techniken aufstößt und zur Lösung dieser drängenden Probleme in puncto Kapazität, Kosten und Vorausplanung eingesetzt werden kann. Er stellt sich optimierte Massenspeichersysteme vor, bei denen die NVMe-Schnittstelle mit einer Kombination von preisgünstigeren 3D-NAND-SSDs von Intel und Intel® Optane™ SSDs, die als Datenspeicher bzw. Journal/Log/Cache dienen, zum Zuge kommt. Letztere verkörpern Intels allerneueste Massenspeicher-Technik, die schnelle Schreibzugriffe und im Vergleich zu NAND-SSDs 10-fach geringere Latenz bietet.

„Optane schließt die Lücke zwischen aktuellem Flash-Speicher und DRAM“, so Zhang. „Optane ist langsamer als DRAM, aber wesentlich schneller als die gegenwärtige Flash-Technik“. Er beschreibt das Potenzial der neuen Technik für die Optimierung aller Flash-Systeme wie folgt: „Der Vorteil sind die geringeren Kosten: Einsparungen beim Platzbedarf des Rechenzentrums, größere Kapazität pro System, höhere Dichte pro Rack und niedrigerer Energieverbrauch.“

Wenn Sie also das nächste Mal mit diesen Massenspeicherproblemen konfrontiert werden, denken Sie an die NVMe-Schnittstellentechnik für Daten-SSDs mit einem Schuss Intel Optane zur Steigerung der Schreibgeschwindigkeit und weiteren Reduzierung der Latenz, denn das ist wahrscheinlich die kostengünstige Upgrade-Möglichkeit, auf die Sie gewartet haben.

*Marken oder Produktnamen sind Eigentum der jeweiligen Inhaber.

Weitere Informationen:

Lassen Sie sich unsere beliebten Planungsleitfäden und Erkenntnisse direkt an Ihr Postfach liefern.

Jetzt anfordern

Weitere Artikel

Im ersten Teil der Reihe über Enterprise-Clouds sehen wir uns an, welche Vorteile die Optimierung und Modernisierung von Rechenzentren mit neuester Technik bringt.

Mehr darüber

Die Cloud sorgt für wahre Unternehmensflexibilität, die umwälzende Veränderungen bewirken kann.

Mehr darüber

Im letzten Teil unserer Reihe über die Enterprise-Cloud sehen wir uns an, wie Walmart OpenStack einsetzt und warum die NASDAQ auf eine Software-definierte Infrastruktur (SDI) umstellt.

Mehr darüber

Zugehörige Ressourcen

In diesem Video werden die verschiedenen Modelle – Public, Private und Hybrid-Cloud – verglichen und deren grundlegende Elemente, Besonderheiten und jeweiligen Vorteile sowie die Eignung für unterschiedliche betriebliche Bedürfnisse dargestellt.

Weitere Infos

Dieser Leitfaden soll Ihnen dabei helfen, mit Elementen von Intel, IBM Cloud SoftLayer*, VMware und HyTrust eine Trusted-Cloud-Lösung zu implementieren.

Weitere Infos

Amazon Web Services (AWS) und Intel entwickeln gemeinsam eine Referenzplattform für IoT-Architekturen, die eine sichere Basis für die Onlinevernetzung von Geräten und die Übertragung von Daten in die Cloud bereitstellt.

Weitere Infos