TACC und UCSD: Bewältigung von COVID-19 mit HPC

Der von der National Science Foundation finanzierte Frontera Supercomputer ist führend im Wettlauf um mögliche COVID-19-Behandlungen.

Auf einen Blick:

  • Das Texas Advanced Computing Center (TACC) entwickelt und betreibt einige der leistungsstärksten Computerressourcen der Welt, darunter Frontera, einen der größten Supercomputer der Welt.

  • Frontera läuft auf skalierbaren Intel® Xeon® Prozessoren der 2. Generation mit Intel® Deep Learning Boost (Intel® DL Boost) und persistentem Intel® Optane™ Speicher, um die datengestützten und datenintensiven Anwendungen des TACC sowie maschinelles Lernen (ML) und Deep Learning (DL) zu unterstützen.

  • Frontera unterstützt mehrere Dutzend Projekte als Reaktion auf COVID-19. In diesem Webinar wird eines dieser Projekte in Zusammenarbeit mit dem Amaro Lab an der UC San Diego (UCSD) erforscht. Komponenten mit dem Ziel, die Schnittstelle zwischen Grundlagenforschung und klinischer Forschung zu überbrücken.

author-image

Von

In diesem Webinar erörtern Dr. Dan Stanzione, Leiter des Texas Advanced Computing Center, und Dr. Rommie Amaro, Professorin für Chemie und Biochemie an der University of California San Diego, Projekte, die der Reaktion auf COVID-19 dienen.

Das Texas Advanced Computing Center (TACC) ist ein Teil der University of Texas at Austin. TACC wird von der National Science Foundation finanziert, um fortschrittliche Computerressourcen bereitzustellen. Dies umfasst umfangreiche Supercomputing- und Datenressourcen sowie Menschen, mit deren Hilfe diese Ressourcen die Wissenschaft innerhalb der Gesellschaft für Benutzer im ganzen Land und auf der ganzen Welt vorantreiben.

Der heute behandelte Rechner, Frontera, wurde mit Technik von Intel und Dell gebaut. Er ist einer der größten Supercomputer der Welt. Derzeit unterstützt Frontera mehrere Dutzend Projekte in Reaktion auf COVID-19. Das größte Projekt ist ein Kooperationsprojekt zwischen TACC und dem Amaro Lab an der UC San Diego (UCSD).

Das Amaro Lab entwickelt verschiedene Atommodelle des COVID-19-Virus und anderer Systeme. Dabei handelt es sich um biologische Systeme, hauptsächlich auf atomarer Ebene. Das TACC verwendet Ressourcen wie Frontera, um Simulationen der Molekulardynamik aller Atome durchzuführen. Diese sind im Grunde die rechnerische und numerische Darstellung biologischer Systeme und wie sie sich mit der Zeit bewegen. Durch die Verwendung dieser rechnerischen Ansätze können wir viel besser verstehen, wie diese Systeme aussehen, damit wir Therapeutika besser vorbereiten und entwickeln können.

Mary Killelea: Hallo. Willkommen. Vielen Dank für Ihre Teilnahme an der Customer-Spotlight-Reihe von Intel. Diese Reihe hebt innovative, branchenführende Unternehmen hervor, die mithilfe von datenzentrischen Technologien und Plattformen von Intel die digitale Transformation durchlaufen, geschäftliche und technische Herausforderungen behoben und neue Gelegenheiten geschaffen haben. Wir freuen uns, heute die bahnbrechende Forschung vorstellen zu können, die am TACC mit dem von der National Science Foundation finanzierten Frontera Supercomputer betrieben wird.

Der Moderator ist heute Tim Crawford. Tim ist strategischer CIO-Berater und arbeitet mit Enterprise-Organisationen zusammen. Ich übergebe hiermit an Tim, der den Startschuss für das heutige Gespräch geben wird.

Tim Crawford: Alles klar. Danke für die Einführung, Mary. Ich heiße Sie alle bei diesem Webinar willkommen.

Wir werden in den nächsten 25 Minuten den Inhalt besprechen. Danach haben wir 15 Minuten Zeit für eine Frage-und-Antwort-Sitzung.

An meiner Seite heute sind Dr. Dan Stanzione und Dr. Rommie Amaro. Dan und Rommie, vielen Dank, dass Sie heute an diesem Gespräch teilnehmen.

Tim Crawford: Zunächst werden wir unseren Teilnehmern und Zuhörern erklären, was das Texas Advanced Computing Center, das TACC, ist.

Danach können Sie, Rommie, uns etwas über UC San Diego erzählen und über die Arbeit, die Sie als Teil Ihrer Gruppe und Ihres Labors dort leisten. Dan, möchten Sie beginnen?

Dr. Dan Stanzione: OK. Ich bin der Direktor des Texas Advanced Computing Center, und wir sind Teil der University of Texas at Austin. Wir werden jedoch von der National Science Foundation finanziert, um fortschrittliche Computing-Ressourcen sowie umfangreiche Supercomputer- und Datenressourcen bereitzustellen und Menschen zu helfen, die Wissenschaft innerhalb der Gesellschaft für Benutzer im ganzen Land und auf der ganzen Welt voranzutreiben. Wir sind also quasi eine nationale Ressource in diesem Bereich.

Wir haben den Frontera gemeinsam mit Intel und Dell gebaut. Er ist einer der größten Supercomputer der Welt. Derzeit unterstützt Frontera mehrere Dutzend Projekte in Reaktion auf COVID-19. Das größte Projekt ist ein Kooperationsprojekt gemeinsam mit Rommies Labor. Damit übergebe ich das Wort an Rommie.

Tim Crawford: Prima. Rommie?

Dr. Rommie Amaro: Sehr schön. Ja. Ich bin Professorin für Chemie und Biochemie an der UC San Diego. Unser Labor entwickelt diese verschiedenen Atommodelle.

Wir modellieren das Virus und andere biologische Systeme hauptsächlich auf atomarer Ebene. Wir nutzen Ressourcen wie das TACC, um Molekulardynamik-Simulationen aller Atome durchzuführen. Diese sind im Grunde die rechnerische und numerische Darstellung dieser biologischen Systeme und wie sie sich im Laufe der Zeit bewegen.

Tim Crawford: Das klingt kompliziert. Ich freue mich darauf, mehr darüber zu erfahren. Wir haben uns schon ein wenig über Ihre Arbeit unterhalten und ich freue mich sehr darauf, dies mit unserem Publikum zu teilen.

Bevor wir uns näher mit den Details beschäftigen, könnten Sie uns bitte etwas über die Beziehung zwischen dem TACC und der UCSD erzählen? Dies ist nicht Ihr erstes gemeinsames Projekt. Bitte erzählen Sie uns ein wenig darüber.

Dr. Rommie Amaro: Natürlich. Wir – und viele andere Labors – nutzen das TACC zur Erforschung vieler verschiedener wissenschaftlicher Fragen bereits seit vielen Jahren, ich schätze mal seit über 10 Jahren.

Beispiele für unsere enge Zusammenarbeit sind Projekte in den Bereichen Krebsforschung, Umweltchemie und Virusforschung. Vor dem SARS-CoV-2 arbeiteten wir intensiv an Influenza-Projekten. Vielleicht möchte Dan noch etwas hinzufügen.

Dr. Dan Stanzione: Ja. Es gibt eine öffentliche Wahrnehmung, dass wir alle mit anderen Dingen beschäftigt waren und erst in Aktion getreten sind, als wir von COVID-19 überrascht wurden. Solche Dinge passieren unmittelbar und wir können dramatische Ergebnisse erzielen.

Wir können dramatische Ergebnisse erzielen, aber es sind die Ergebnisse einer langen Zeit der Investitionen in den Aufbau von Beziehungen. Wie ich bereits erwähnt habe, war Rommies Labor der größte Benutzer unserer Systeme und eines der ersten Labors, die auf COVID-19 reagierten. Der Grund dafür ist, dass wir bereits viel zusammengearbeitet haben, und diese Beziehungen sind sehr hilfreich.

Sie und alle in ihrem Labor wissen, wie sie die von uns bereitgestellten Systeme optimal nutzen können, wie sie funktionieren und wie die Softwareumgebung aussieht. Wir wissen, wie wir die Codes unterstützen können, die sie verwendet und in großem Maßstab ausführt, und wir haben bereits zuvor zusammengearbeitet.

Als dieses Projekt begann, führten wir ein kurzes Gespräch, planten und legten los. Wenn wir noch nie zusammengearbeitet hätten, wären die Systeme nicht vorhanden gewesen. Und wenn die Leute in Rommies Labor nicht bereits jahrelang mit den Systemen gearbeitet hätten, um sich auf ein solches Ereignis vorzubereiten, hätten wir niemals so schnell auf die Anforderungen der Gesellschaft reagieren können.

Diese langjährige Beziehung und unsere frühere Zusammenarbeit tragen wesentlich zum Erfolg dieser Arbeit bei.

Tim Crawford: Danke für diese hilfreichen Hintergrundinformationen. Wie Sie wissen, wird viel über High-Performance-Computing und Forschung gesprochen; dies wird zunehmend zu mehr als einer Laborangelegenheit. Selbst große Unternehmen haben damit begonnen, sich diesen bedeutenden Problemen zuzuwenden und diese zu lösen.

Jedoch werden diese großen Probleme auf einer klinischen Ebene oder auf der Ebene des Genoms gelöst. Vielleicht kann Rommie uns mehr darüber erzählen, wie wichtig es ist, diese Art von Problemen auf atomarer Ebene zu verstehen.

Vielleicht können Sie ein wenig über Ihre Arbeit sprechen und darüber, warum das Verständnis auf der atomaren Ebene so wichtig ist.

Dr. Rommie Amaro: Natürlich. Sie hatten erwähnt, dass Sie früher weniger über Studien auf klinischer und Genomebene gehört haben. Die atomare Ebene ist sehr eng mit diesen beiden verbunden, jedoch wird hier ein anderer Aspekt desselben Problems beleuchtet.

Wir erstellen also diese sehr detaillierten Modelle auf der atomaren Ebene. Beispielsweise erstellen wir eine Abbildung des SARS-CoV-2-Virus. Wir beginnen mit allen Arten von experimentellen Daten oder einer Reihe verschiedener Arten von experimentellen Daten, die uns zeigen, wie das Virus aussieht.

Dann erstellen wir diese In-silico-Abbildungen und erforschen die Funktion dieser Moleküle im Detail. Dies ist letztlich wichtig, weil man Therapeutika, wie beispielsweise irgendeine Art von Arzneimittelmolekül, einnimmt, nachdem man sich bereits mit SARS-CoV-2 infiziert hat, und man versucht, die Dauer der Erkrankung zu verkürzen. Oder für Menschen, die Impfstoffe entwickeln.

Wir hören viel über die Neutralisierung von Antikörpern. Dies sind die Moleküle, die uns letztlich hoffentlich injiziert werden, damit wir wieder unter die Menschen gehen und uns umarmen können. Um diese zu entwickeln und zu verstehen, wie sie funktionieren, müssen wir das Virus auf der Ebene verstehen, auf der sich die Moleküle und Atome bewegen.

Eine der wirklich einzigartigen Sachen an der Datenverarbeitung in diesem Bereich, insbesondere bei TACC, ist, dass Laborexperimente uns nicht alles sagen können, was wir wissen müssen.

Durch die Verwendung dieser rechnerischen Ansätze können wir viel besser verstehen, wie diese Systeme aussehen und womit wir es zu tun haben, damit wir Therapeutika besser vorbereiten und entwickeln können.

Tim Crawford: Rommie, im Rahmen unserer Vorbereitung zu diesem Webinar haben wir darüber gesprochen, wie Sie derzeit dabei sind, die Form des Moleküls – oder in diesem Fall des Virus – zu verstehen, und wie Sie verschiedene Simulationen durchführen. Können Sie kurz erklären, inwiefern dabei das TACC-System, Frontera, ins Spiel kommt?

Dr. Rommie Amaro: Natürlich. Okay. Lassen Sie mich zunächst ein wenig auf den biologischen Hintergrund eingehen, dann werde ich versuchen, Ihre Frage zu beantworten. Viren im Allgemeinen haben diese wirklich interessante Art entwickelt, dem menschlichen Immunsystem irgendwie auszuweichen. Sie hüllen sich im Grunde genommen in eine Art Zuckerschild, wir nennen das Glykan, also in eine Art Glykanschild.

Wir wissen dies aus Versuchen, aber es ist sehr schwierig, dies experimentell darzustellen. Aus diesem Grund bauen wir Modelle dieser Glykanschilde, was uns einen ersten Eindruck davon gibt, wie diese Art von Schutzbeschichtung auf dem Virus aussieht.

Das ist wichtig, weil der Schild nicht etwa eine perfekte Art von Rüstungsschild ist. Es gibt Löcher im Schild, und wir können diese Löcher mit Therapien wie den neutralisierenden Antikörpern oder Arzneimitteln angreifen.

Diese Moleküle sind sehr groß. Rechner wie CAT – insbesondere Frontera, alle Knoten und die gesamte Rechenleistung – sind sehr wichtig, um diese Systeme mit der Geschwindigkeit und Präzision abfragen zu können, die wir benötigen, um dies in einem Zeitrahmen erledigen zu können, in dem wir den Trend umdrehen und diese Daten tatsächlich an Impfstoffentwickler und Kliniker weitergeben können, damit sie die Daten in diesem anhaltenden Kampf gegen COVID-19 einsetzen können.

Tim Crawford: Prima. Ich würde gerne noch etwas näher auf Frontera zu sprechen kommen. Dan, könnten Sie uns noch etwas mehr darüber erzählen? Vielleicht können Sie uns erklären, was Frontera ist. Sie haben das zu Beginn schon kurz erwähnt, aber bitte gehen Sie für unsere Teilnehmer noch etwas genauer auf Frontera ein.

Dr. Dan Stanzione: OK. Frontera ist ein Rechner, den die National Science Foundation an der UT finanziert hat, um diese Herausforderungen auf hoher Ebene, die größten Computing-Probleme der Welt, zu lösen. Der Rechner ist jetzt etwa ein Jahr alt. Er debütierte auf Platz fünf der Welt und hielt an diesem Ranking durch einige Aktualisierungen der Liste hindurch fest, in der Supercomputer eingestuft werden.

Eine dieser Aktualisierungen fand erst am Montag statt; in Japan und Italien sind diese Woche neue Systeme online gegangen, und wir sind auf Platz acht der Welt gefallen. Aber er ist einer der größten Rechner. Er ist immer noch der größte Rechner an irgendeiner Universität weltweit.

Der Rechner besteht aus etwas mehr als 8.000 einzelnen Servern, rund 450.000 Intel Prozessorkernen sowie einem sehr eng gekoppelten Netzwerk, damit Leute wie Rommie Hunderttausende davon gleichzeitig für ein einzelnes Problem einsetzen können.

Wir unterstützen am TACC eine Reihe verschiedener Rechner unterschiedlicher Größen sowie viele Tausend Forscher im ganzen Land, aber wir behalten uns Frontera für die größten Projekte vor. Es befinden sich zu einem bestimmten Zeitpunkt nur etwa 705 Projekte auf dem Rechner, sodass jeder Benutzer genug Zeit hat, um einige dieser großen Probleme zu lösen.

Im Ökosystem der Rechner, die für Universitätsforscher bereitstellen, ist dies der Rechner, den wir für die größten Anwender reservieren. Seit die computergestützte Reaktion auf die Pandemie im März einsetzte, wurde etwa 30 % der Zeit auf dem Rechner genutzt, um irgendwelche Projekte im Bereich der COVID-Forschung auszuführen.

Rommie hat bereits die aktuelle Arbeit auf der atomaren Ebene erwähnt. Ihr Projekt sowie mehrere weitere mit ähnlichen Zielen sind die größten Rechneranwender.

Außerdem haben wir uns mit einigen anderen Dingen beschäftigt, die Sie erwähnt haben. Wir haben an ein paar Dutzend Projekten auf genomischer Ebene gearbeitet. Bei ein paar weiteren Dutzend Modellen haben wir menschliche Interaktionen modelliert, entweder in Bezug auf die Epidemiologie, wie sich das Virus im Land verbreitet, und Dinge wie die Rückverfolgung riesiger Mobiltelefondaten, um zu sehen, wie sich Menschen bewegen und wie sie interagieren.

Heute hat die New York Times einen hervorragenden Artikel veröffentlicht, zu dem einer unserer Wissenschaftler einen Beitrag geleistet hat und der veranschaulicht, wie sich all diese Fälle ausbreiten.

Tim Crawford: Prima. Sie haben darüber gesprochen, wie Frontera im Vergleich zu anderen Lösungen für einige der COVID-Projekte eingesetzt wird. Es gibt noch viele andere Lösungen. Können Sie das kurz ansprechen?

Dr. Dan Stanzione: Andere Lösungen oder andere Probleme, Tim?

Tim Crawford: Andere Lösungen. Denken Sie beispielsweise an das HPC Consortium; es gibt andere Lösungen, die Teil dieses Konsortiums sind und sich zusammenschließen, um gemeinsam diese großen Probleme zu lösen.

Dr. Dan Stanzione: OK. Es gibt eine Reihe von Architekturen und anderen Computing-Ansätzen, die von Menschen genutzt werden. Es gibt jetzt ein nationales COVID HPC Consortium, das – zum Zeitpunkt, an dem wir darüber reden – seit ungefähr 90 Tagen besteht. Es wird vom White House Office of Science and Technology Policy organisiert, das derzeit ungefähr 15 große Computing-Anbieter koordiniert, darunter Amazon, Microsoft und Google als Cloud-Anbieter, Labore des US-Energieministeriums, einige Universitäten und jetzt auch einige andere Ressourcen auf der ganzen Welt, z. B. in Großbritannien und Japan, außerdem ein Zentrum in der Schweiz; sie sind jetzt Teil des Konsortiums.

Das Konsortium unterstützt etwa 70 Projekte rund um die COVID-19-Forschung. Je nach Rechenanforderungen gehen diese zu verschiedenen Standorten. Wir haben uns auf eine Art CPU-zentrierten Großcomputer konzentriert, von dem wir glauben, dass er der beste Allzweck-Computer ist. Aber es gibt einige speziellere Architekturen, einige Lösungen, die mehr auf die GPU ausgerichtet sind, und einige, die nur große Sammlungen lose gekoppelter Probleme sind, die Sie auf Cloud-Servern ausführen können.

Viele davon sind sehr große Sammlungen kleiner Datenanalyseprobleme. Beispielsweise verwenden Rommies Probleme Tausende von Knoten gleichzeitig; diese würden in dieser Umgebung nicht sehr gut funktionieren, aber es gibt viele andere Projekte, die dies tun. Ich glaube, dass wir von diesen Anbietern die meisten haben.

Wir unterstützen ungefähr ein Dutzend, die vom Konsortium zugewiesen wurden. Es gibt jedoch einige spezialisiertere Architekturen und Cloud-Anbieter, die alle versuchen, die Herausforderung zumindest in rechentechnischer Sicht zu bewältigen.

Tim Crawford: Prima. Deshalb möchte ich darüber sprechen, was Intel für Frontera zu bieten hat. Sie haben die 450.000 Intel Kerne erwähnt, aber ich glaube, dass Programmierung und Beziehungen eine Rolle dabei spielen. Dan, könnten Sie uns zunächst erklären, wie Beziehungen und Programmierung Ihrer Meinung nach zu Ihrer Beziehung mit Intel passen?

Dr. Dan Stanzione: OK. Ich habe bereits zuvor unsere Beziehungen mit den Wissenschaftlern erwähnt. Wir bei TACC sitzen quasi in der Mitte, zwischen den Endanwendern, den Wissenschaftlern, die die Arbeit leisten, und den Anbietern wie Intel, die Technik bereitstellen, um diese Arbeit zu erledigen.

Diese Beziehungen sind für uns von entscheidender Bedeutung. Frontera wurde von Dell gebaut und integriert, und zwar mit Intel® Technik, darunter den Xeons [Intel® Xeon® Prozessoren], den neuesten Cascade Lake Xeons [skalierbaren Intel® Xeon® Prozessoren], mit denen wir das System gebaut haben.

Und es wurden die Optane [Intel® Optane™ Technik] und die DIMM-Technik für Knoten mit großem Arbeitsspeicher eingebettet. Aber es ist bei weiterem nicht unser erster Rechner mit Intel; es ist quasi eine lineare Fortsetzung unserer Supercomputer Stampede und Stampede2, die wir ebenso mit Intel gebaut haben.

Und ein Teil davon ist, diese Dinge wirklich zum Laufen zu bringen. Ein Teil besteht darin, dass die Chips funktionieren, aber ein anderer großer Teil ist die Software und Firmware und das dazugehörige Tuning. Wir arbeiten sehr eng mit Intel Ingenieuren zusammen, um die Nachrichten-Weiterleitungs-Bibliotheken zu optimieren, die den molekulardynamischen Codes zugrunde liegen, die Rommie und andere nutzen. Ziel ist es, sicherzustellen, dass diese großen Rechner auch wirklich auf die Wissenschaft abgestimmt sind.

Wir haben mit Intel zusammengearbeitet, um die Funktionsweise der Anwendungen zu optimieren. Diese Bemühungen dauern bereits seit Jahrzehnten an, haben sich aber in den letzten Monaten um diese spezifischen Probleme herum intensiviert.

Tim Crawford: Klar. Rommie, ich möchte Sie in das Gespräch einbeziehen. Inwieweit spielt diese Konsistenz bei Ihrer Arbeit eine Rolle?

Dr. Rommie Amaro: Konsistenz ist sehr wichtig. Speziell für dieses besondere Problem von COVID-19 mussten wir sehr schnell loslegen.

Da wir die Codes für diese Systeme bereits seit langer Zeit entwickelt und eine Beziehung mit TACC und dem gesamten Team aufgebaut hatten, konnten wir mindestens einen vollen Monat früher loslegen, als wir es sonst getan hätten. Das ist in Zeiten wie jetzt wirklich kritisch.

Ich denke, es war wirklich wichtig für die rechtzeitige Reaktion, insbesondere für dieses spezielle Problem.

Tim Crawford: Das freut mich zu hören. Rommie, lassen Sie uns über die verschiedenen Arten von Projekten sprechen, an denen Sie arbeiten – wir haben uns bisher auf COVID konzentriert, denn das steht in unserer aller Leben derzeit an erster Stelle, sowohl beruflich als auch persönlich.

An welchen anderen Arten von Projekten arbeiten Ihr Team und Ihre Gruppe an der UCSD?

Dr. Rommie Amaro: Da kann ich einige nennen. Wir arbeiten in zwei großen Bereichen; einer dieser Bereiche steht im Zusammenhang mit Krankheiten. In diesem Bereich arbeiten wir an einigen interessanten Projekten; insbesondere bemühen wir uns um die Entwicklung von Krebstherapeutika.

Das war sehr erfolgreich. Wir haben TACC verwendet, das heißt das frühere Stampede-System, an dem Dan auch beteiligt war, soweit ich weiß. Dabei konnten die Tone-of-Level-Modelle, die simuliert wurden, neue Arzneimittelbereiche ausfindig machen, die die Menschen nie zuvor gesehen hatten, und diese entwickelten nun Arzneimittelmoleküle, die auf diese völlig neue Art der Krebs-Wirkungsklasse abzielen.

Ein weiterer Bereich, der sehr interessant ist und der möglicherweise unsere nächste Pandemie sein könnte, steht im Zusammenhang mit dem Klimawandel. Wir versuchen zu verstehen, wie Aerosole oder diese kleinen Schwebeteilchen, insbesondere von Meeresgischt, die Chemie steuern und an verschiedenen chemischen Reaktionen beteiligt sind, wenn sie durch die Atmosphäre schweben und beispielsweise Wolken bilden oder es regnen lassen.

Wir versuchen, diese wirklich kleinen Details zu verstehen, die letztendlich einen sehr viel größeren Effekt haben. Aber alles beginnt damit, die kleinstmöglichen Schritte auf atomarer Ebene zu verstehen.

Tim Crawford: Es fasziniert mich, dass Sie diese massiven kritischen Probleme auf der atomaren Ebene lösen, sowohl im übertragenen als auch im wörtlichen Sinne.

Was sind die Pläne für das TACC und für die UCSD, und für Ihr Labor, Rommie? Dan, lassen Sie mich mit Ihnen und dem TACC beginnen, dann wechseln wir zu Rommie und ihrer Gruppe.

Dr. Dan Stanzione: OK. Wir haben immer einige Pläne am TACC in Bezug auf künftige Systeme und Wachstum. Es gibt drei Bereiche.

Einer betrifft die betrieblichen Abläufe. Wie unterstützen wir Leute wie Rommie und viele andere Wissenschaftler in allen möglichen wissenschaftlichen Bereichen, die unsere Rechner am effektivsten einsetzen?

Wie verändert sich der Software-Stack mit der Zunahme der KI-Methoden, die immer mehr in wissenschaftlichen Workflows eindringen, der Zunahme sehr billiger digitaler Daten, mit denen wir uns in großen Mengen befassen müssen, von Dingen wie autonomen Fahrzeugen über Umweltüberwachung bis hin zur Teilchenphysik des Large Hadron Collider.

Wir arbeiten operativ an Möglichkeiten zur Unterstützung der Benutzer und des Software-Stacks, aber wir planen auch immer die zukünftigen Systeme. Stampede ist jetzt mehrere Jahre alt, und Frontera ist erst ein Jahr alt. Aber wir schauen uns bereits nach dem nächsten System und der Technologie der nächsten Generation um und berücksichtigen dabei, ob es die wissenschaftlichen Anforderungen der kommenden Jahre erfüllen wird.

Wir planen also, Frontera in etwa vier Jahren [unverständlich]. Das sollte das Zehnfache der Kapazität dieses Rechners aufweisen, sowohl in Bezug auf die Geschwindigkeit beim Lösen einzelner Probleme, wie den sehr großen Problemen, an denen Rommie arbeitet, und es sollte das Zehnfache der wissenschaftlichen Arbeit zur gleichen Zeit erledigen können.

Tim Crawford: Das ist beeindruckend. Rommie, wie sieht's bei Ihnen aus?

Dr. Rommie Amaro: Ja. Grundsätzlich werden wir die Komplexität der Systeme, die wir untersuchen, und auch die Größe des Systems, weiter ausbauen. Beispielsweise befasste sich die erste Studie, die wir mit SARS-CoV-2 durchgeführt haben, nur mit dem sogenannten Spike-Protein, das eine Art Hauptinfektionsmaschinerie des Virus darstellt. Aber wir versuchen schon jetzt, das gesamte SARS-CoV-2-Virus zu simulieren und dann, wie es mit den Wirtszellen assoziiert ist.

Wir werden also den Umfang und die Größe des eigentlichen Problems, das wir auf Frontera und seinem Nachfolger lösen wollen, weiter ausbauen.

Tim Crawford: Das ist erstaunlich. Hier eine Frage dazu. Was ist das Hindernis für das Verständnis dieser großen Probleme? Ist es die Rechenleistung? Ist es der Braintrust? Ist es Zeit? Was ist gewöhnlich das Hindernis beim Lösen einiger dieser großen Probleme?

Dr. Rommie Amaro: Es ist etwas von allem. Zum einen basieren unsere Modelle auf experimentellen Daten. Eine Beschränkung oder ein Aspekt, den wir ständig aktualisieren müssen, ist es, dass wir bei Experimenten mehr Informationen über den Kontext des Problems beschaffen müssen. Details zum Virus oder Details zu dessen Interaktion mit dem menschlichen System. Wir müssen dann zurückgehen und unsere Modelle aktualisieren, um weiterhin sicherzustellen, dass sie das, was wir wissen, so genau wie möglich widerspiegeln. Und dann lösen wir sie, beziehungsweise versuchen, sie erneut zu lösen.

Der Braintrust-Teil betrifft die Frage: Was sind die Daten, die in unsere Modelle eingespeist werden, um sie genauer zu machen? Gleichzeitig sind wir mit unseren großen Computerlösungen eine sehr neugierige Gruppe von Wissenschaftlern und werden die Art der Fragen, die wir stellen, weiter ausbauen, wenn diese Computerlösungen wachsen und größer werden.

Wir werden wachsen, um der Größe der Maschinen zu entsprechen, glaube ich. Vielleicht hat Dan eine andere Meinung dazu.

Dr. Dan Stanzione: Nein, das ist eine großartige Antwort, Rommie. Ich wollte Tims Frage mit „Ja“ beantworten, weil es all diese Dinge sind. Und was wir sehen ist wirklich eine Art iterativer Prozess ist, während wir die Auflösung und den Umfang der Physik erhöhen, die in die Rechenmodelle fließen. Es dient zwei Zwecken.

Zum einen können Sie etwaige Unstimmigkeiten mit Beobachtungen im tatsächlichen Universum beheben, wie die Dinge passieren, wenn diese Modelle besser werden. Es führt aber auch zu neuen Erkenntnissen. Ich meine, wenn man beispielsweise eher an Astronomie und Astrophysik denkt. Die Studien über dunkle Materie und dunkle Energie und was diese Kräfte im Universum bewirken, sind das Ergebnis von Diskrepanzen zwischen Modell und Beobachtung. Das führt Sie zu einer neuen Theorie. Darum geht es, nicht wahr?

In gewissem Sinne sind Experimente schwierig, insbesondere dann, wenn es sich um sehr kleine Dinge handelt, wie bei der Arbeit mit Atomen und grundlegenden Naturmaterialien, oder um sehr große Dinge, wie Galaxien, die sich einander umkreisen, oder kollidierende schwarze Löcher.

Wir ersetzen also sehr teure oder unmögliche Experimente durch Berechnungen, um neue Erkenntnisse zu gewinnen. Und während die Modelle immer besser werden, stellen die Wissenschaftler immer mehr neue Fragen. So findet eine iterative Art von Prozess statt, und wir stellen diese neuen Tools immer wieder zur Verfügung, und neue aufregende Dinge passieren immer wieder mit Leuten wie Rommie, die mit der nächsten Frage fortfahren kann.

Tim Crawford: Prima. Bevor wir zu den Fragen und Antworten wechseln, möchte ich nur diese eine Sache zum Abschluss bringen, von der ich weiß, dass Sie sie in der Vergangenheit erwähnt haben, und zwar dringendes Computing. Wie es sich mit dem (HPC) vergleichen lässt. Ich weiß nicht mehr, wer das gesagt hat, Dan oder Rommie, aber vielleicht können Sie nur ganz kurz erklären, was Sie damit meinen.

Dr. Dan Stanzione: Ja. High-Performance-Computing ist etwas, womit wir uns ständig beschäftigen und wofür ein großer Bedarf besteht. Es wird angetrieben von der Notwendigkeit, alles zu tun, von der Weiterentwicklung der Grundlagenwissenschaft, der Erforschung schwarzer Löcher oder der grundlegenden Mechanismen der Wissenschaft, bis hin zu Fast Engineering, dem Bau besserer Autos, selbstfahrender Autos, und es gibt viel Druck, das schnell zu lösen, schnelle Iterationen durchzuführen, um den Herstellungsprozess zu verbessern.

Wir haben aber auch diesen neuen Unterbereich des High-Performance-Computings und das, was ich als dringendes Computing bezeichnen würde. Diese Arten von Naturkatastrophen und anderen gesellschaftlichen Herausforderungen. Heute ist es COVID. Wenn wir dieses Gespräch vor zwei Jahren geführt hätten, hätten wir über die Computing-Reaktion auf Hurricane Harvey gesprochen.

Es ist Sommer, was bedeutet, dass wir derzeit eine Menge Tornados vorhersagen. Wir beschäftigen uns viel mit Erdbebenmodellen. In einer Welt mit schwereren Stürmen und Klimaereignissen – und Regionen, die von Überschwemmungen betroffen sind, oder wenn die Welt immer dichter bevölkert wird, haben diese Katastrophen größere Auswirkungen.

Wir brauchen eine Art von Echtzeit-Computing-Antwort darauf, und das treibt eine große Nachfrage an, die sonst in die Grundlagenforschung fließen würde und ändert die Art und Weise, wie wir diese großen Rechner bedienen. Es ist also eine Art von neuer treibender Kraft für uns und warum wir sehr große und sehr reaktionsschnelle Systeme bauen müssen.

Tim Crawford: Ja. Eines der Erkenntnisse, die ich aus unserem Gespräch im Vorfeld dieses Webinars gewonnen habe, war, dass Ihre Arbeit nicht nur akademischer Art ist. Die Arbeit, die Sie beide leisten, ist sehr bedacht auf und wichtig für Mensch und Erde. Das ist meiner Meinung nach unglaublich wichtig.

Gehen wir jetzt zu den Fragen und Antworten über. Es gibt einige Fragen von unseren Teilnehmern. Die erste Frage lautet: Wie können Sie Ihr Wissen über molekulare Strukturen und Bewegungen in ein algorithmisches Modell umwandeln, das auf HPC ausgeführt werden kann?

Dr. Rommie Amaro: Ja, das ist eine sehr gute Frage. Früher war dieser Bereich der Chemie wirklich nur theoretisch. Die Leute schrieben Theorien mit Kugelschreiber und Bleistift auf und so weiter, nicht wahr? Aber jetzt haben wir all diese verschiedenen Möglichkeiten, diese Theorien numerisch zu kodieren und sie auf diesen Architekturen zu lösen.

Es gibt einige wirklich wichtige Komponenten, die in diese spezielle Art der Computermodellierung einfließen. Wie ich bereits erwähnt habe, beschreiben wir einerseits das System auf der atomaren Ebene. Wir definieren im Grunde eine mathematische Gleichung, die uns sagt, wie die Wechselwirkungen zwischen den verschiedenen Atomen sein sollten und welche Arten von Atomen es in unserem System gibt.

Und dann gibt es das sogenannte Kraftfeld, das über viele Jahrzehnte entwickelt wurde; dies sind Parameter, die von dieser Gleichung verwendet werden. Wir verwenden diese großartigen Rechner wie Frontera, um Newtons Bewegungsgleichung im Laufe der Zeit zu integrieren.

Dadurch erhalten wir im Wesentlichen diese dynamische Ausbreitung der Atombewegung in etwa in ihrem realen biologischen Kontext. Ich weiß nicht, ob das zu technisch ist, aber Sie haben eine technische Frage gestellt. So gehen wir im Wesentlichen vor. So gehen wir im Grunde vor.

Tim Crawford: OK. Bei der nächsten Frage beginnen Sie wohl auch am besten mit der Beantwortung, Rommie. Bitte gehen Sie etwas genauer auf einige der Eingaben für die Modelle ein. Gibt es einen Punkt, an dem das Modell „fertig“ ist?

Dr. Rommie Amaro: Sehr schön. Dies ist auch eine gute Frage. Eingaben in das Modell. Wie ich bereits erwähnt habe, haben wir verschiedene Arten von experimentellen Daten. Wir erstellen dreidimensionale Abbildungen dieser biologischen Themen oder der viralen Komponenten in den Wirtszellen. Dies ist sehr wichtig.

Wir verwenden strukturelle Daten. Wie Kryo-Elektronenmikroskopie-Daten, Röntgenkristallographie-Daten, Tomographie. Dies sind alles Möglichkeiten, die Experimentatoren haben, um strukturelle Informationen über strukturelle Datensätze in der Biologie zu sammeln. Wir führen diese Daten dann mit einem sogenannten Glykomik zusammen.

Es geht um das Verständnis, wie dieser Glykanschild aussieht. Sie können dies mit verschiedenen massenspektrometrischen Ansätzen durchführen. Wir nehmen Glykomik-Daten, Gendaten, Lipiddaten.

Es gibt also all diese Informationen, die wir aus Experimenten gewinnen, und wir verwenden viele davon, um eine anfängliche Randbedingung dafür zu schaffen, wie das System zusammen aussieht. Dann erwecken wir es durch Stimulation zum Leben.

Tim Crawford: OK.

Dr. Dan Stanzione: Ja. Vielleicht kann ich noch etwas genauer darauf eingehen, Tim. Ja. Es gibt immer noch eine weitere Frage. Diese Modelle nehmen immer nur unser unvollkommenes Verständnis des Universums und entwickeln es ein bisschen weiter. In gewissem Sinne ist diese Arbeit nie fertig. Aber was viele Leute vielleicht nicht zu schätzen wissen, wenn sie nicht mitten im Prozess sind, ist, dass nur weil es nicht fertig ist, dies nicht bedeutet, dass wir nicht genug Informationen erhalten, um daraus nützliche Schlussfolgerungen zu ziehen.

Viele dieser Informationen, wie die Struktur des S-Proteins, das Rommie erwähnt hat, sind bereits gut genug, um von anderen vorgelagerten Wissenschaftlern verwendet zu werden. Wir arbeiten mit einem Team an der University of Chicago zusammen, das untersucht, ob es basierend auf dem, was wir über die Struktur wissen, Verbindungen gibt, von denen wir sagen können, dass sie absolut nicht als Arzneimittel funktionieren.

Sie haben Millionen von Möglichkeiten durchlaufen und verworfen. Dann blieben nur noch ein paar Dutzend, die sie an die medizinischen Chemiker übergeben haben, die sie synthetisieren und testen, was diese gesamte Entwicklung von Therapeutika und Impfstoffen dramatisch beschleunigt.

Ihre Suchphase für das, was wir in neuen klinischen Studien testen müssen, schrumpft also von Millionen zu Tausenden, basierend auf dem, was wir jetzt wissen. Es gibt immer neue wissenschaftliche Projekte. Ich könnte Beispiele in einem Dutzend anderer Bereiche nennen, in denen es ähnlich aussieht.

Aber nur weil es nicht fertig ist, heißt das nicht, dass das, was wir bisher geleistet haben, nicht nützlich und umsetzbar ist. Es kann dramatische Reaktionen geben – es ist also eine Art Prozess. Rommie und ihr Team führen Simulationen durch. Sie führen Analysen durch. Sie veröffentlichen ihre Ergebnisse.

Dann haben sie mehr Arbeit zu erledigen, und sie gehen über zu einem detaillierteren Modell und beantworten die Frage noch besser. Oder sie beantworten neue Fragen, aber gleichzeitig haben diese Informationen Auswirkungen und werden gebraucht. Wir sind bereits an einem Punkt angelangt, an dem dies meiner Meinung nach einen großen Einfluss auf unsere Suche nach Therapeutika und Impfstoffen hat.

Und so gibt es immer mehr zu tun. Die Antwort kann stets verbessert werden, aber sie ist bereits jetzt nützlich. Ich glaube, diese Unterscheidung ist wichtig.

Tim Crawford: Wenn wir mehr Computer, mehr Menschen, mehr Wissenschaftler hätten, könnten wir viel mehr tun, um diese Fragen zu beantworten.

Dr. Dan Stanzione: Absolut.

Tim Crawford: Wir haben noch ein paar Fragen und nur wenige Minuten, um sie zu beantworten. Machen wir eine Blitzrunde, um diese Fragen schnell zu beantworten. Meine erste Frage lautet, wie lange dauern Simulationen gewöhnlich?

Dr. Rommie Amaro: Okay. Das hängt von der Größe des Systems und auch von der Frage ab, die man stellen möchte. Im Allgemeinen – meinen Sie Zeit auf der Weltuhr? Ich nehme an, dass Sie das meinen. Oder meinen Sie Echtzeit?

Tim Crawford: Ja. Dies ist eine gute Frage. Es ist eine weitere Frage innerhalb einer Frage.

Dr. Rommie Amaro: Gemeinschaft von Fragen. Ja. Okay. Für dieses spezielle System, für das wir Frontera zuletzt verwendet haben, geht es um die Simulation auf einer biologischen Zeitskala von mehreren Mikrosekunden. Vielleicht ungefähr 10 Mikrosekunden, und das dauerte ungefähr zwei Monate auf dem Frontera-Supercomputer.

Dr. Dan Stanzione: Ja. Es war ein riesiger Bereich. Wir haben Experimente und glücklicherweise haben wir die Möglichkeit, sogenannte Checkpoints zu nutzen, um Simulationen zu starten und zu stoppen. Sie erhalten vielleicht 48 Stunden auf dem Rechner, dann kommt jemand anderes dran. In einem Experiment haben Projekte bis zu anderthalb Jahre gedauert, um einen einzigen Lauf zu beenden.

Tim Crawford: Erstaunlich. Ok, nächste Frage. Wie wirkt sich die Konvergenz von HPC und KI auf unsere Fähigkeit aus, große Probleme wie die Auswirkungen von COVID, Klimawandel und Naturkatastrophen zu bewältigen?

Dr. Dan Stanzione: Ja. Lassen Sie mich darauf antworten. Es ist die Konvergenz unserer traditionellen wissenschaftlichen, numerischen Methoden und der KI. Weil das zugrunde liegende Computing tatsächlich ziemlich ähnlich ist. Es gibt Unterschiede, und wenn wir neuronale Netze im Vergleich zu Simulationen trainieren, können wir eine reduzierte Präzision einsetzen. Außerdem gibt es einige grundlegende Unterschiede beim Rechnen, aber es ist – es gibt eine Wahrnehmung der Konvergenz von HPC und AI.

Wir führen KI-Workloads auf HPC-Plattformen aus. Kurz gesagt, die Antwort lautet ja, und wir nehmen einige Änderungen daran vor. Die schnelle Antwort in der Wissenschaft lautet jedoch, dass wir KI-Methoden einbeziehen, insbesondere die sogenannten Ersatzmodelle. Dies sind statistisch basierte Modelle, die von Daten abgeleitet werden, im Gegensatz zu Modellen, die auf physikalischen Prinzipien basieren, die aus ersten Prinzipien abgeleitet wurden, um die Suchbasis zu beschleunigen.

Es gibt so viele offene Fragen dazu, wie man KI für die Wissenschaft einsetzen kann. Eine Frage ist, wie Sie die Antworten validieren und überprüfen, ob die Ergebnisse korrekt sind. Aber wo wir es am effektivsten sehen – und selbst in dieser Arbeit mit Medikamentenpipelines reduzieren Sie Ihre Suchbasis, wenn Sie die KI und das trainierte Ersatzmodell verwenden. Vielleicht führen Sie die Ausgabe von 1.000 vorherigen Simulationen aus.

Sie nehmen 10 Millionen mögliche Antworten auf – beispielsweise ob es sich um eine Verbindung handelt, die an COVID bindet, oder um die Form eines Tragflügels an einem Flugzeug. Anstatt eine Million Möglichkeiten zu haben, lassen Sie die KI dies auf fünf oder zehn Kandidaten reduzieren; dann führen Sie die tiefe Physik nur auf diesen aus. Es ist eine Technik, mit der wir die Dinge erheblich beschleunigen können.

Tim Crawford: Prima.

Dr. Rommie Amaro: Ja, wirklich. Wenn ich noch schnell etwas hinzufügen darf. Eines der Dinge, die wir definitiv gesehen haben, ist, dass wir – wie im Bereich der Wirkstoffentdeckung – wirklich an diesem Schnittpunkt ist, nach dem die Person gefragt hat. Der Schnittpunkt dieser physikbasierten Modelle zusammen mit der KI ist besonders leistungsfähig, um das Modell auf aussagekräftige Weise prädiktiver zu machen.

Tim Crawford: Prima. Leider sind wir am Ende unserer Zeit angelangt. Ich möchte mich zunächst bei Dr. Dan Stanzione und Dr. Rommie Amaro bedanken. Vielen Dank, dass Sie uns für dieses Webinar Ihre Erkenntnisse mitgeteilt haben.

Transkript herunterladen ›