Chinese Academy of Sciences bringt Forschung voran

Eine neue Plattform, die auf Computertechnik mit hoher Durchsatzleistung basiert, steigert die Effizienz der modernen Materialgenomforschung.

Auf einen Blick:

  • Das Institute of Physics der Chinese Academy of Sciences (IOP-CAS) ist eines der führenden Institute für die Erforschung und Anwendung der Materialwissenschaften in China.

  • High-Throughput-Computing (HTC), ein neuer Typ datenorientierter HPC-Technik, legt den Schwerpunkt auf die Durchführung von „mehr Berechnungen“ anstatt „schnellerer Berechnungen“. Um dieses Ziel zu erreichen, arbeiteten das IOP-CAS, Intel und Dell gemeinsam an der Entwicklung einer Plattform der nächsten Generation für die Materialgenomberechnung und die entsprechende Datenverarbeitung. Die neue Plattform führte mehrere bedeutende Komponenten im Bereich der Computer- und Hochgeschwindigkeitsschnitt stellentechnik ein, wie beispielsweise die 2. Generation der skalierbaren Intel® Xeon® Prozessorreihe, Produkte von Cornelis Networks sowie Server, Datenspeicher und andere Lösungen von Dell.

author-image

Von

Traditionelle Materialforschungsmethoden werden aufgrund langer F&E-Zyklen und unvorhersehbarer Erfolgsquoten allmählich zu einem beträchtlichen Engpass bei der Entwicklung innovativer industrieller Produkte sowie Qualitätsverbesserungen. Um die Erforschung neuer Materialien voranzubringen und die industrielle Wettbewerbsfähigkeit auf nationaler Ebene zu stärken, beginnt das Institute of Physics der Chinese Academy of Sciences (IOP-CAS) damit, stärker auf High-Throughput-Computing (HTC) zu setzen, einem neuen Zweig des High-Performance-Computing (HPC). Zur Unterstützung des Projekts „Materials Genome Initiative (MGI)“ entwickelte das Institut eine durchsatzintensive Plattform für die Materialgenomberechnung und die entsprechende Datenverarbeitung. Zudem stellte es mit der Materialgenomdatenbank und der Cloud-basierten Ressourcenplattform weiteren Materialforschern in ganz China Dienste für den Datenaustausch zur Verfügung.

Im Unterschied zu konventionellem HPC, bei dem es darum geht, einzelne Aufgaben schneller und effizienter zu berechnen – was die „schnellere Berechnung“ zur zentralen Kennzahl macht – legt HTC, ein neuer Typ datenorientierter HPC-Technik, den Schwerpunkt darauf, „mehr Berechnungen“ durchzuführen. Mit anderen Worten: HTC konzentriert sich auf Verbesserungen der Aufgabenparallelität und des Durchsatzes bei der Verarbeitung riesiger Datenmengen. Aus diesem Grund haben HTC-Plattformen im Allgemeinen eher höhere oder komplexere Anforderungen hinsichtlich Parallelverarbeitungsleistung, durchschnittlicher Reaktionszeit, Durchsatz, Skalierbarkeit und Kosten.

Um diese praktischen Anforderungen zu erfüllen, arbeitet das IOP-CAS mit Intel, einem Innovator im Bereich der Verarbeitungsleistung von Rechenkernen, und Dell, einem Anbieter von Servern, Datenspeichergeräten und anderen Lösungen, an der Entwicklung einer Plattform der nächsten Generation für die Materialgenomberechnung und die damit verbundene Datenverarbeitung (die „neue Plattform“). Die neue Plattform führte mehrere bedeutende Komponenten im Bereich der Computer- und Hochgeschwindigkeitsschnittstellentechnik ein, wie beispielsweise die 2. Generation der skalierbaren Intel® Xeon® Prozessoren, Produkte von Cornelis Networks sowie Dell EMC PowerEdge Server, Dell EMC Datenspeicher der Produktreihen PowerVault ME4 and Isilon und andere Lösungen, in denen Dells einzigartige innovative Funktionalität und Merkmale integriert sind. Neben höherer Rechenleistungseffizienz für die Materialgenomforschung stellt die neue Plattform zudem einer großen Gruppe von Materialforschern eine umfassende Genomdatenbank mit freigegebenen Materialien zur Verfügung.

Eine der wichtigsten Optionen für die heutige Materialforschung besteht in der Nutzung neuer Technik und Trends im High-Performance-Computing (HPC) und High-Throughput-Computing (HTC), um Materialgenomberechnungen zu beschleunigen und dadurch die Effizienz der Erforschung und Entwicklung neuer Materialien zu steigern. Die Einführung fortschrittlicher Komponenten und Lösungen – wie der 2. Generation der skalierbaren Intel® Xeon® Prozessoren und der Lösungen von Cornelis Networks sowie Dell EMC PowerEdge Servern und Datenspeicher der Produktreihen PowerVault ME4 und Isilon – hat unserer neuen Plattform hinsichtlich ihrer Leistung, Zugänglichkeit, Zuverlässigkeit und Wartbarkeit, die bei der Erforschung neuer Materialien mehr Dynamik ermöglichen, höchstes Lob von führenden Materialforschern eingebracht.“ – Miao Liu, Distinguished Research Fellow, Institute of Physics, Chinese Academy of Sciences

Anwendungsvorteile für IOP-CAS:

  • Durch die Implementierung der 2. Generation der skalierbaren Intel® Xeon® Prozessoren erhielt das IOP-CAS Zugang zu herausragender Durchsatzleistung für Materialgenomberechnungen zu angemessenen Thread-Kosten. Das Institut kann jährlich zehntausende Materialberechnungsaufgaben bedenkenlos bewältigen und so die Erforschung neuer Materialien in China erheblich beschleunigen.

  • Dells bewährte Computing- und Datenspeicherkomponenten sowie fortschrittlichen hyperkonvergenten Appliances tragen in Kombination mit der 2. Generation der skalierbaren Intel® Xeon® Prozessorreihe und den Produkten von Cornelis Networks dazu bei, dass die neue Plattform für durchsatzintensive Materialgenomberechnungen einen leistungsstarken geschlossenen Kreislauf bereitstellt. Dies bietet dem IOP-CAS die Voraussetzungen für den Aufbau einer Materialgenomdatenbank auf Weltklasseniveau und die Weiterentwicklung des Instituts zu einem starken Motor für die chinesische Materialgenomforschung.

Wenn Rohöl die Lebensader der modernen Industrie ist, so entsprechen Materialien ihren Knochen und Muskeln. Jeder Versuch, industrielle Produkte wettbewerbsfähiger zu machen, erfordert einen kontinuierlichen Prozess der „Transmutation“. Dies bedeutet, dass beständige Erforschung und Entwicklung sowie die Einführung neuer Materialien unabdingbar sind. Bislang stützten sich Materialforscher hauptsächlich auf Versuch und Irrtum, um die strukturelle Charakterisierung verschiedener Materialien zu erforschen und die Eigenschaften neuer Materialien zu entdecken. Da die Zusammensetzung moderner Materialien jedoch an Komplexität zunimmt, insbesondere durch die Einführung von Verbundwerkstoffen, funktionieren konventionelle experimentelle Techniken in vielen Szenarien nicht mehr. Probleme wie lange F&E-Zyklen, hohe Kosten und geringe Erfolgsquoten zeigen sich immer deutlicher.

Die Einführung der Materials Genome Initiative (MGI)1 auf internationaler Ebene und die zunehmende Ausgereiftheit theoretischer Simulationsmethoden wie der Density Functional Theory (DFT) und der Monte-Carlo-Methoden bringen Materialforscher an die Grenzen. Sie nutzen nun häufiger die starke Parallelverarbeitungsleistung von Computermethoden, insbesondere HTC, um Materialien anhand von Simulationsberechnungen präzise zu screenen.

Sehen wir uns als Beispiel die viel beachtete Erforschung von Halbleitermaterialien an. Für die Anwendung und Analyse der Leistungsmerkmale jedes neuen Materials – etwa das Wachstumsverhalten dünner Substratfilme und ob eine Deaktivierung oder Rekonstruktion der Oberfläche stattfindet – waren in der Vergangenheit wiederholte Tests und Verifizierungsprozesse erforderlich. Heute können Forscher mithilfe der DFT-Theorie teilweise bekannte Dichtefunktionalberechnungen nutzen, die der Gesamtenergie des Systems entsprechen, und Methoden der Quantenmechanik einsetzen, um Elektron-Elektron-Wechselwirkungen zwischen Atomen in einem Material präzise zu berechnen und dadurch Daten zur elektronischen Struktur, dem Magnetismus und der Strukturstabilität weiterer Verbundwerkstoffe zu erhalten, die eine theoretische Anleitung für das Materialdesign bereitstellen und die Anwendung weiterer neuer Materialien in Halbleitern beschleunigen.

Als eines der führenden Institute für die Erforschung und Anwendung neuer Materialien in China kennt das IOP-CAS die neuesten Entwicklungen und setzt sich für die Nutzung von HTC bei der Erforschung neuer Materialien ein. Angesichts der zahlreichen Durchbrüche in Supraleiter-, Nano- und Batteriespeichermaterialien sind die Ergebnisse äußerst ermutigend. Dem IOP-CAS zufolge besteht eine der wichtigsten Aufgaben zur Beschleunigung der Erforschung neuer Materialien in China in der kontinuierlichen Integration der neuesten Entwicklungen in der Informationstechnik in die Materialforschung sowie dem Aufbau einer umfassenden Materialgenomdatenplattform mit größerer und effizienterer Rechenleistung. Dies wird Forscher dabei unterstützen, sich stärker auf die Materialforschung selbst zu konzentrieren, anstatt sich mit der komplexen Beschaffung einer derartigen Rechnerumgebung und deren Aufbau zu beschäftigen.

Das IOP-CAS arbeitete gemeinsam mit Intel und Dell an der Entwicklung einer soliden IT-Infrastrukturbasis für die durchsatzstarke Plattform der nächsten Generation, die für die Materialgenomberechnung und entsprechende Datenverarbeitung zum Einsatz kommen soll. Durch die Einführung fortschrittlicher Computing- und Schnittstellentechnik in Verbindung mit ausgereiften Produkten und Lösungen für die Verarbeitung und Speicherung von Daten stellt die Plattform einen leistungsstarken Motor für die Berechnung und Erforschung von Materialgenomen in China dar.

Die einzelnen Komponenten der HTC-Lösung für die Materialgenomberechnung

Wie bereits oben erwähnt spielt die HTC-Lösung für die neue Plattform des IOP-CAS eine entscheidende Rolle. Einfach gesagt handelt es sich bei der Plattform um ein Rechensystem, das in der Lage ist, große Mengen unabhängiger Aufgaben parallel zu verarbeiten. Die folgenden Funktionsmerkmale unterscheiden sie von herkömmlichen HPC-Lösungen:

  • Verarbeitung: Aufgaben werden generell auf Thread-Ebene parallel verarbeitet und Workloads werden kontinuierlich an die Aufgabenanforderungen angepasst.
  • Effizienz: Die Lösung konzentriert sich stärker auf die Integration von Daten und Berechnungen, wobei die Lese-/Schreibleistung direkte Auswirkungen auf die Systemeffizienz hat.
  • Leistung: Die Zunahme gleichzeitiger Berechnungs- und Datenverarbeitungsanfragen innerhalb einer Zeiteinheit rückt stärker in den Mittelpunkt.
  • Kosten: Zwischen der Verarbeitungsleistung und der Thread-Anzahl des Systems besteht eine positive Korrelation, und die Priorisierung der Single-Thread-Kosten sorgt insgesamt für Verbesserungen der Verarbeitungsleistung.

Da HTC enorme Workload-Mengen verarbeiten kann, eignet es sich generell gut für Szenarien, die das Screening zahlreicher Proben umfassen, zum Beispiel den F&E-Prozess in Biologiebereichen und der Arzneimittelindustrie. HTC kann auch für Simulationsberechnungen und die Untersuchung massiver Materialgenome in der Materialgenomforschung eingesetzt werden.

Wie in Abbildung 1 zu sehen ist, lässt sich die Materialgenomberechnung oft simpel in die folgenden Schritte unterteilen:

  1. Das System wählt Daten aus einer externen Materialgenomdatenbank aus und generiert eine Datei, die durch spezielle Simulationssoftware (z. B. VASP2) aufgerufen werden kann.
  2. Mithilfe leistungsstarker Parallelverarbeitung erhält es Daten über entsprechende Materialeigenschaften wie die Energiedichte, die elektronische Struktur und die Steigerung/Reduktion der Energie bei der Synthese.
  3. Die Berechnungsergebnisse werden für weitere Analysen im internen Datenspeichersystem aufbewahrt. In der Regel erfordert dies ein leistungsstarkes, parallel verteiltes Dateisystem.
  4. Nachdem die Nachverarbeitung und Integration der Daten durchgeführt wurden, können weitere detaillierte Analysen erfolgen, deren Ergebnisse für das Material-Screening zum Einsatz kommen. Zudem können die Analyseergebnisse in die Materialgenomdatenbank importiert werden. So entsteht ein vollständiger Verfahrensprozess.

Abbildung 1: Ablauf der Materialgenomberechnung.3

Das Generieren von Strukturdateien, die theoretische Simulation und Berechnung sowie die Analyse der Berechnungsergebnisse in den oben beschriebenen Verfahren lassen sich auf eine bestimmte Weise in einen Satz unabhängiger Befehle und Aufgaben umwandeln. Diese Befehle und Aufgaben können durch spezielle Softwarepakete ausgeführt werden, womit das perfekte Szenario für HTC-Anwendungen bereitsteht.

Neben der Ausführung durchsatzintensiver Materialgenomberechnungsaufgaben plant das IOP-CAS den Aufbau eines Rechenzentrums für die neue Plattform, um berechnete Daten für spätere Analysen zu speichern. Das Institut wird zudem eine Datenplattform in einer Private Cloud bereitstellen, um Daten, Codes und Berechnungstools, die für die Materialgenomberechnungen zum Einsatz kommen, zugänglich zu machen. Dieser Ansatz wird Forscher in ganz China dabei unterstützen, sich stärker auf ihre Forschungsarbeit selbst zu konzentrieren, anstatt Zeit, Mühe und Geld in die Beschaffung dieser Art von Ausstattung zu investieren und eine ähnliche Umgebung aufzubauen.

Mit all diesen Ideen plant das IOP-CAS die Bereitstellung seiner HTC-Materialgenomberechnungslösung über vier zentrale Softwarepakete: An erster Stelle steht das durchsatzstarke Dispatching-Paket, das auf Slurm (Simple Linux Utility for Resource Management) basiert. Durch die Verteilung und Überwachung aller Rechen- und Analyseaufgaben wird es die Voraussetzungen für optimale Ausführungsleistung gewährleisten. Das zweite Paket ist ein Datenarchivierungspaket, das die Berechnungsergebnisse im Paralleldateisystem Lustre äußerst schnell archivieren kann. An dritter Stelle kommt das Paket für die Nachverarbeitung. Es ist für die Inferenz und Integration der reinen Berechnungsergebnisse für anschließende Datenanalysen oder grafische Darstellungen/Abfragen zuständig. Das vierte Paket setzt den Schwerpunkt auf Big-Data-Analysen. Es unterstützt Forscher beim Einsatz von künstlicher Intelligenz (KI) und anderer Technik für das Screening neuer Materialien und effizientere Prognosen der Syntheseresultate auf Basis riesiger Mengen berechneter Daten und Analyseergebnisse.

Herausragende Designideen erfordern die Unterstützung durch geeignete Hardwareinfrastruktur. Für das IOP-CAS, das sich auf die Materialforschung konzentriert und nicht über das nötige Know-how und die entsprechende Erfahrung im IT-Bereich verfügt, ist diese Herausforderung durchaus bedeutsam. Um das Potenzial der neuen Plattform besser auszuschöpfen und seine Leistungsfähigkeit für künftige Berechnungsaufgaben zu maximieren, entschied sich das IOP-CAS, „dies Experten zu überlassen“ und holte Intel und Dell als Innovationspartner an Bord. Die Partner entwickelten gemeinsam eine leistungsstarke und hochverfügbare Rechner- und Datenspeicher-Hardwarearchitektur, die auf die Anforderungen des oben beschriebenen umfassenden Software-Frameworks zugeschnitten ist. Bevor die drei Partner mit ihrer Arbeit begannen, stellte das IOP-CAS mehrere Anforderungen für die Infrastruktur der neuen Plattform auf:

  • Fortschrittliche Technik: Die Rechner- und Datenspeicher-Hardwarearchitektur der neuen Plattform muss die kontinuierliche Zunahme der HTC-Materialgenomberechnungsaufgaben in den kommenden Jahren bewältigen können und gleichzeitig einen Leistungsvorteil beibehalten.
  • Stabiler Betrieb: Nach ihrer Fertigstellung muss die neue Plattform riesige Materialgenomberechnungsaufgaben mit hohem Durchsatz bewältigen. Da jeder Systemausfall mit unvorhersehbaren Verlusten einhergehen wird, sind die Zuverlässigkeit und die Stabilität der Architektur enorm wichtig.
  • Einfache Bewältigung von Betrieb und Instandhaltung: Aufgrund der relativ knappen Personalressourcen des IOP-CAS kann das Institut für den Betrieb und die Instandhaltung der Plattform keine dedizierten Spezialisten einsetzen. Daher müssen Betrieb und Wartung der Rechner- und Datenspeicher-Hardwarearchitektur agil und simpel sein.

Intel® Xeon® Prozessoren bieten mehr Rechenleistung und optimale Parallelität zu gleichen Kosten

Die Einbindung fortschrittlicher Computertechnik in die neue Plattform war die wichtigste Vorgabe des IOP-CAS. Daher mussten die Anforderungen an die Rechen- und Verarbeitungsleistung unbedingt erfüllt werden.

Da die neue Plattform ihre Rechenleistung in erster Linie von Prozessoren bezieht, war die Auswahl eines geeigneten Hauptprozessors, der die Anforderungen des IOP-CAS in Hinblick auf die HTC-Materialgenomberechnungen erfüllen würde, eines der wichtigsten Kriterien für den Aufbau der Plattform. Hierfür mussten in mehrfacher Hinsicht gründliche Betrachtungen angestellt und auch der Faktor Ausgewogenheit berücksichtigt werden. Konkret gesagt galt die wichtigste Überlegung der Anzahl der Kerne und Threads des Prozessors. Denn HTC setzt den Schwerpunkt eher auf Parallelverarbeitung, wofür das Computersystem möglichst viele Aufgaben gleichzeitig verarbeiten muss, was in positiver Korrelation zur Thread-Anzahl steht. Zweitens wird der L3-Cache (Last-Level-Cache) von allen Kernen und Threads eines Prozessors gemeinsam genutzt. Daher ist ein größerer L3-Cache wichtig, um sicherzustellen, dass jeder parallele Aufgabe mehr Caches zugewiesen werden und damit die Cachetrefferrate verbessert wird. Drittens ist eine höhere Prozessortaktgeschwindigkeit von entscheidender Bedeutung, um die Verarbeitungsgeschwindigkeit einzelner Aufgaben zu steigern. Und schließlich mussten auch die Preise und Kosten in die Überlegungen einbezogen werden. Prozessoren mit höherer Konfiguration können den oben genannten Spezifikationen und Kennzahlen besser Rechnung tragen, steigern jedoch auch die Kosten. Eine zweckmäßigere Entscheidung wäre die Maximierung der Kapitalrendite (CapEx), ohne bei der Parallelverarbeitungsleistung Abstriche zu machen. Daher muss das Prinzip der Priorisierung von Single-Thread-Kosten beachtet werden.

Um das IOP-CAS bei der Auswahl eines erschwinglicheren Prozessors zu unterstützen, führte Intel in Zusammenarbeit mit Experten des Instituts ausführliche Tests und Bewertungen mehrerer Intel® Prozessoren durch. Ursprünglich zog das IOP-CAS den Intel® Xeon® Gold 6230 Prozessor in Erwägung. Neue Pläne, die aufzeigten, dass die neue Plattform in Zukunft deutlich mehr Berechnungen durchführen müsste, bewogen das IOP-CAS allerdings zu einem Wechsel zum Intel® Xeon® Gold 6248 Prozessor, der eine höhere Taktfrequenz aufweist. Nachdem Intel das IOP-CAS bei der Durchführung gründlicher Tests unterstützt hatte, machte Intel den folgenden Vorschlag: Obwohl die höhere Taktfrequenz des Intel® Xeon® Gold 6248 Prozessors in einigen Bereichen das Leistungsvermögen steigern könnte, hat er dieselbe Anzahl an Kernen und Threads wie der Intel® Xeon® Gold 6230 Prozessor. Daher würde diese Verbesserung keine bahnbrechende Leistungssteigerung liefern. Nach sorgfältiger Bewertung der überarbeiteten Modelle der skalierbaren Intel® Xeon® Prozessorreihe der 2. Generation, die Anfang 2020 eingeführt wurde, empfahl Intel dem IOP-CAS, sich für den Intel® Xeon® Gold 6230R Prozessor zu entscheiden.

Im Vergleich zu den 2019 veröffentlichten Modellen der skalierbaren Intel® Xeon® Prozessoren der 2. Generation verfügen die 2020 überarbeiteten Modelle alle über Verbesserungen der Turbo-Leistung, der Kern-/Thread-Anzahl und der Cache-Größe. Nehmen wir als Beispiel den Intel® Xeon® Gold 6230R Prozessor. Wie Tabelle 1 zeigt, sind die Anzahl der Kerne und Threads sowie die Cache-Größe um 30 % höher als beim Vorgängermodell (Intel® Xeon® Gold 6230 Prozessor), und die Turbo-Frequenz stieg von 3,9 GHz auf 4,0 GHz, während die Kosten ungefähr gleich blieben.4 Dies bedeutet, dass die Kapitalrendite der neuen Plattform deutlich besser wäre.

Tabelle 1: Intel® Xeon® Gold 6230R Prozessor (2020) und Intel® Xeon® Gold 6230 Prozessor (2019): Vergleich wichtiger technischer Daten

In der Zwischenzeit stellte sich heraus, dass das IOP-CAS für bestimmte Szenarien möglicherweise noch mehr Rechenleistung benötigen würde und daher empfahl Intel zudem den Intel® Xeon® Platinum 9242 Prozessor. Mit 48 Kernen und 96 Threads für hohe Parallelität und Unterstützung für 12-Kanal-DDR4-Speicher bietet der Intel® Xeon® Platinum 9242 Prozessor noch mehr Rechenleistung. Dies bietet dem IOP-CAS die Voraussetzungen für die Erforschung weiterer Anwendungen, wie den Einsatz von maschinellem Lernen und Deep Learning für Algorithmusoptimierungen zur Materialgenomberechnung oder die Vorhersage von Materialeigenschaften.

Datenspeicher von Dell und Cornelis Networks für eine perfekt abgestimmte Integration von Rechenleistung und Daten

Nach der Analyse der Rechenanforderungen der neuen Plattform machten sich Intel, Dell und das IOP-CAS an die Frage, wie sich die Integration von Rechenleistung und Datenverarbeitung verbessern ließe. Genau diese Bedeutung hat HTC-Technik für „datenorientierte“ Aufgaben und dieser Faktor spielt bei der Parallelverarbeitung neben der Rechenleistung eine wichtige Rolle: Sie stellt höhere Anforderungen an den Durchsatz, die Latenz und die Bandbreite von Datenspeichermodulen.

Daher entschieden sich Intel und Dell beim Aufbau der neuen Plattform für die Einführung fortschrittlicher Software- und Hardware-Produkte sowie Technologien, wie beispielsweise Datenspeicher der Produktreihe Dell EMC PowerVault ME4, Scale-out-NAS der Produktreihe Dell EMC Isilon, die hyperkonvergente Infrastruktur (HCI) VxRail von Dell EMC und die Produkte von Cornelis Networks.

Wie Abbildung 2 zeigt, ist die Hardwarearchitektur der neuen Plattform in zwei Plattformen unterteilt, um die Anforderungen des IOP-CAS für die Materialgenomberechnung, den Datenspeicher, die Datenanalyse und die Visualisierung zu erfüllen: eine für die durchsatzintensive Materialgenomberechnung und eine für die Materialgenom-Datenverarbeitung. Erstere ist primär zuständig für HTC-Aufgaben und die schnelle Dateispeicherung beim Berechnungsprozess, während die zweite Plattform die Speicherung, Analyse und Cloud-basierte Freigabe von Daten übernimmt. Für die Verbindung der beiden Plattformen kommt ein 10-Gbit/s-Produktionsnetzwerk zum Einsatz.

Abbildung 2: Die primäre Hardwarearchitektur der HTC-Plattform der nächsten Generation des IOP-CAS, die für Materialgenomberechnung und entsprechende Datenverarbeitung eingesetzt wird5

Im Rahmen der durchsatzintensiven Materialgenomberechnung generieren hunderttausende parallele und unabhängige Berechnungsaufgaben große Mengen an Prozessdateien. Diese Dateien müssen mit hoher Geschwindigkeit für die spätere Dateninferenz und -integration gespeichert werden. Zu diesem Zweck nutzt die neue Plattform das leistungsstarke Paralleldateisystem Lustre, für das zwei Dell EMC PowerVault ME4084 Storage-Geräte mit hoher Dichte (2 x 84 x 8 TB, Gesamtkapazität: 1344 TB) auf Basis der Intel Prozessorarchitektur zum Einsatz kommen. Das Lustre-Dateisystem unterstützt Datenspeicher im Bereich hunderter Petabyte und parallele Bandbreite im TB-Bereich. Und aufgrund seiner hohen Skalierbarkeit kann das IOP-CAS die ME4-Datenspeicher bei Bedarf flexibel und einfach aufrüsten.

Die Materialgenomberechnung produziert große Mengen an unstrukturierten Daten. Nehmen wir als Beispiel die Elektronenstruktur (Elektronendichte). Die Elektronendichtedatei eines einzigen Materials könnte ein einziges Bild mit einer Größe von bis zu 10 GB sein. Daher muss die neue Plattform ein leistungsstarkes und skalierbares Datenspeichersystem bereitstellen, das eine enorme Ergebnisdatenmenge bewältigen kann. Dells Lösung waren die skalierbaren NAS-Geräte der Produktreihe Dell EMC Isilon, die für ihre herausragende Effizienz und hervorragende Skalierbarkeit bekannt sind. Vier Isilon H400 (Hybrid-Scale-out-NAS-System) und acht Isilon A2000 (Scale-out-NAS-System für die Datenarchivierung) wurden eingesetzt, um einen einheitlichen Multi-Tier-Datenspeicherpool für die Datenanalyse beziehungsweise die sichere Datenspeicherung aufzubauen. Beide Produkte bieten hervorragendes Scale-out-Potenzial und können dazu beitragen, die Datenspeicherkapazität der Plattform flexibel zu erweitern. Ihr integriertes OneFS-Betriebssystem ermöglicht bis zu 80 % Datenspeicherauslastung, und eine Vielzahl von Datenschutz- und Datensicherheitsmaßnahmen sorgen für die Sicherheit und Zuverlässigkeit von Plattformdaten.6 Dies erfüllt auch die Anforderungen des IOP-CAS an die Stabilität und Zuverlässigkeit der neuen Plattforminfrastruktur.

Mittlerweile stattete Dell die neue Plattform zudem mit sechs hyperkonvergenten Dell EMC VxRail-Appliances aus, um einen Cloud-basierten Ressourcenpool für die gemeinsame Ressourcennutzung zu entwickeln. Wie bereits erwähnt besteht eines der Ziele für die neue Plattform darin, Ergebnisdaten, Codes und Berechnungstools, die für die Materialgenomberechnungen zum Einsatz kommen, zugänglich zu machen, um die Effizienz von mehr Forschern im Bereich der Materialforschung zu verbessern. Die hyperkonvergente VxRail-Infrastruktur lässt sich vollständig in Dells Software-System SSDC (Software Defined Data Center) integrieren. Dies macht es der Plattform einfach, eine Cloud-Umgebung auf Basis der VMware Cloud Foundation mit hyperkonvergenten VxRail-Appliances bereitzustellen. Der Vorteil einer derart umfassend integrierten Plattform ist folgender: Sie vereinfacht den komplexen Prozess der Einrichtung einer Private Cloud – von der Planung über den Aufbau bis zur Bereitstellung – immens. Auch die Komplexität der nachfolgenden Betriebs- und Instandhaltungsaufgaben ist deutlich geringer, was dem IOP-CAS eine All-in-One-Cloud-Lösung zur Verfügung stellt.

Damit Datenspeicherkomponenten und Rechenknoten effizienter zusammenarbeiten, wurden die Produkte von Cornelis Networks auf der neuen Plattform eingesetzt, um die Effizienz und Skalierbarkeit der Schnittstellen zu verbessern. Die Produkte von Cornelis Networks optimieren die Datenflussverwaltung und verbessern den Schutz der Paketintegrität, um die Latenz durch technische Innovationen in der Zugangsschicht weiter zu reduzieren. Noch bedeutsamer ist allerdings, dass ein auf den Produkten von Cornelis Networks basierender Switch-Chip bis zu 48 Ports unterstützt und der neuen Plattform so die Voraussetzungen bietet, über einen einzigen Switch bis zu 1152 Ports zu unterstützen. Diese außergewöhnliche Skalierbarkeit erfüllt die Anforderungen des IOP-CAS für künftige Aufrüstungen und Erweiterungen der neuen Plattform.

Ergebnisse und Perspektiven

Im Rahmen der Partnerschaft mit Intel und Dell hat das IOP-CAS inzwischen 160 Intel® Xeon® Gold 6230R Prozessorknoten und 20 leistungsstarke Intel® Xeon® Platinum 9242 Prozessorknoten in seiner neuen HTC-Genomberechnungsplattform implementiert. Zudem wurden in dem Rechenzentrum, in dem sich die Materialgenom-Datenverarbeitungsplattform befindet, ein vollständiger, einheitlicher Multi-Tier-Ressourcenpool und eine Cloud-basierte Datenplattform für die gemeinsame Ressourcennutzung eingerichtet.

Sobald alle oben genannten Knoten in Betrieb gehen, können rund 3.000 DFT-basierte Aufgaben ausgeführt werden, und täglich werden je nach Materialkomplexität zwischen 100 und 700 Berechnungen für anorganische kristalline Materialgenome abgeschlossen werden. So könnten alle anorganischen kristallinen Materialien, die uns derzeit bekannt sind (nach Deduplizierung ca. 100.000), innerhalb eines einzelnen Jahres analysiert werden. Das IOP-CAS wird im Laufe der nächsten drei bis fünf Jahre die Rechenleistung der neuen Plattform nutzen, um weitere bislang noch unbekannte Materialien zu erforschen und die Vorhersagedaten für 500.000 unbekannte Materialien in die Materialdatenbank der Plattform integrieren.7 Damit soll der Ansatz in der Materialforschung vom konventionellen Ablauf „entdecken – berechnen“ zu „berechnen – entdecken“ transformiert werden, wodurch die Informationstechnik zu einem Antriebsmotor der Erforschung neuer Materialien wird.

Die neue Plattform wird nicht nur die Materialforschung voranbringen, sondern auch den Zusammenschluss von Industrie-, Hochschul- und wissenschaftlichen Forschungsinstituten unterstützen. Der Cloud-basierte gemeinsame Ressourcenpool wird Studenten, Lehrkräften und Forschern von Universitäten, wissenschaftlichen Forschungsinstituten oder Unternehmen die Voraussetzungen bieten, bestehende Materialgenomdaten der Datenplattform zu nutzen, um Synthesen neuer Materialien schnell zu realisieren und dadurch die Ressourcenverschwendung, die durch doppelte Berechnungen verursacht wird, zu vermeiden. Darüber hinaus kann das IOP-CAS anhand der umfangreichen Daten, die auf der Datenplattform gesammelt werden, die internen Strukturen verschiedener anorganischer kristalliner Materialien für Lehrkräfte und Studenten auf unterschiedliche Weise visualisieren. Zudem ist vorstellbar, dass Virtual-Reality-Technik eingeführt wird, um die Untersuchung und Erforschung von Materialien „konkret erfahrbar“ zu machen.

Das IOP-CAS plant, die Zusammenarbeit mit seinen IT-Partnern wie Intel und Dell auch in Zukunft fortzusetzen, um zusätzliche Optimierungen und Erweiterungen der Genomberechnungsplattform zu erzielen, woraufhin die Anzahl der HTC-Knoten auf rund 500 erhöht und die Rechenleistung verdoppelt wird8, was die Materialgenomdatenplattform der IOP-CAS zu einer der besten weltweit machen wird. Darüber hinaus wird der Computing-Schwerpunkt der neuen Plattform erweitert, sodass neben anorganischen kristallinen auch molekulare Materialien einbezogen werden. Das Spektrum der Erforschung neuer Materialien wird weiter ausgebaut werden. Intel und Dell werden ihre eigenen Stärken nutzen und das IOP-CAS mit neuen Produkten, Technologien und Lösungen dabei unterstützen, weitere Erfolge in der Materialgenomberechnung zu erzielen.

Dell: vorgestellte Lösungen

Der als „Fundament des modernen Rechenzentrums“ gepriesene Dell EMC PowerEdge Server ist eine entscheidende Komponente, um die Rechenleistung der HTC-Plattform der nächsten Generation für die Materialgenomberechnung und entsprechende Datenverarbeitung zu steigern. Mit seiner hochskalierbaren Systemarchitektur und flexiblem internen Datenspeicher kann er in Kombination mit skalierbaren Intel® Xeon® Prozessoren der 2. Generation für eine Vielzahl von Anwendungen noch mehr Leistungsvermögen bereitstellen. Seine Funktionsmerkmale wie „vorkonfigurierte VMware-Virtualisierungssoftware mit Cloud-DNA“, „hochskalierbare Unternehmensarchitektur“ und „intelligente Automatisierung für einfache Wartung und Instandhaltung per Fernzugriff“ sind von unschätzbarem Wert für Unternehmen, die ihre IT-Transformation und betriebliche Innovation beschleunigen wollen.9

Dells Datenspeicher der Produktreihe Dell EMC PowerVault ME4 basieren auf moderner Architektur. Sie sind mit Intel® Xeon® Prozessoren ausgestattet und für SAN/DAS optimiert, sodass Unternehmen agile, leistungsstarke und kostengünstige Datenspeichersysteme schnell entwickeln und integrieren können. Die ME4-Produktreihe verfügt über enormes Potenzial und unterstützt alle Treibertypen, eine Vielzahl von Protokollen sowie direkt einsatzbereite Softwarefunktionalität. Sie bietet viele Optionen für skalierbare Datenspeichermodule und eignet sich für die Beschleunigung von Unternehmensanwendungen wie HPC, Datensicherung und VDI.10

Die Scale-out-NAS-Lösungen der Produktreihe Dell EMC Isilon, die auf dem OneFS-Betriebssystem basieren, stellen einen Hybrid-NAS-Array mit verschiedenen Funktionen bereit. Sie zeichnen sich durch eine bessere Ausgewogenheit zwischen Leistung, Kapazität und Kosten aus. Mit mehreren integrierten Protokollen bieten sie Benutzern agilere und flexiblere Interoperabilität. Sie helfen Unternehmen dabei, Aufgaben mit einer Vielzahl unstrukturierter Daten für die Datei-/Datenkonsolidierung auf einer einzigen Plattform zu realisieren und unterstützen sie dabei, teure Datenspeichersilos zu beseitigen und die Verwaltung zu optimieren.6

Die hyperkonvergente Dell EMC VxRail-Infrastruktur – eine gemeinsam mit VMware entwickelte hyperkonvergente Plattform – bietet Benutzern Implementierungen und Upgrades mit nur einem Klick sowie direkt verwendbare Bereitstellungsfunktionalität für Cloud-Plattformen. Zudem ermöglicht sie vollständiges Lebenszyklus-Management, von der Hardware bis hin zur Software und der Cloud-Plattform. Dies vereinfacht den Betrieb und die Instandhaltung sowie die Verwaltung der Cloud-Plattform, sodass Nutzer die Ressourcen je nach Bedarf skalieren und flexibel zuweisen können, wenn die Anforderungen steigen.11

PDF herunterladen ›